<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>芯片战争 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%E8%8A%AF%E7%89%87%E6%88%98%E4%BA%89/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Mon, 18 Aug 2025 13:35:29 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>芯片战争 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。</title>
		<link>https://lukefan.com/2025/08/18/deepseek-r2%e9%9a%be%e4%ba%a7%e7%9c%9f%e7%9b%b8%ef%bc%81%e9%87%91%e8%9e%8d%e6%97%b6%e6%8a%a5%e7%88%86%e6%96%99%ef%bc%9a%e5%8d%8e%e4%b8%ba%e6%98%87%e8%85%be%e8%8a%af%e7%89%87%e8%ae%ad%e7%bb%83%e5%a4%b1/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 18 Aug 2025 13:35:27 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[华为很厉害]]></category>
		<category><![CDATA[英伟达，NVIDIA，黄教主，GPU]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI芯片]]></category>
		<category><![CDATA[AI训练]]></category>
		<category><![CDATA[AMD]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[B100]]></category>
		<category><![CDATA[Claude 4]]></category>
		<category><![CDATA[CUDA]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Deepseek R2]]></category>
		<category><![CDATA[Function Call]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[Grok 4]]></category>
		<category><![CDATA[H100]]></category>
		<category><![CDATA[H20]]></category>
		<category><![CDATA[H800]]></category>
		<category><![CDATA[Kimi]]></category>
		<category><![CDATA[Llama 4]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[TPU]]></category>
		<category><![CDATA[XAI]]></category>
		<category><![CDATA[中美科技战]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[传闻]]></category>
		<category><![CDATA[千问]]></category>
		<category><![CDATA[升腾910C]]></category>
		<category><![CDATA[华为]]></category>
		<category><![CDATA[华为升腾]]></category>
		<category><![CDATA[国产替代]]></category>
		<category><![CDATA[国产芯片]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型训练]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[开源]]></category>
		<category><![CDATA[技术瓶颈]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[散热问题]]></category>
		<category><![CDATA[浸没式液冷]]></category>
		<category><![CDATA[液冷]]></category>
		<category><![CDATA[深度求索]]></category>
		<category><![CDATA[百度]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[腾讯]]></category>
		<category><![CDATA[芯片战争]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[辟谣]]></category>
		<category><![CDATA[金融时报报道]]></category>
		<category><![CDATA[难产]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2469</guid>

					<description><![CDATA[兄弟们，震惊部又来！FT曝：DeepSeek R2被升腾拖进产房卡壳，华为救火队常驻也拉不动，最后无奈切回NVIDIA 🙃。更离谱：8.15-8.30的“官宣”，居然是R1自己幻觉出来的…😂

现实是：训练≠推理。海外已是10万块H100开团，我们这边910C一热就“打怪不能存档”🫠；液冷得全浸泡，相关股票倒是先起飞了💦📈。真能稳训大模型的，除了英伟达就剩谷歌TPU了。

两大“国运级”相撞，先躺的不是DeepSeek，只能继续等奇迹。DeepSeek不融资不表演，憋大招也许真有可能？点个赞，保佑R2别再难产；评论区站队：N卡、TPU还是升腾，你押谁？🤔🔥

 DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。

揭秘DeepSeek R2发布推迟的真正原因：传闻因华为升腾芯片在关键的大模型训练阶段遭遇技术瓶颈，导致项目被迫换回英伟达GPU。这不仅暴露了国产AI算力在稳定性与多卡协同上的严峻挑战，更凸显了我们在追赶GPT-5、Llama 4等动辄需要20万块H100训练的顶级模型时所面临的巨大算力差距。

本期视频将深度剖析《金融时报》报道的背后细节，探讨为何被寄予厚望的华为升腾芯片难以胜任长时间、高强度的大模型训练任务。从散热问题到多芯片互联速度，我们将层层解析国产算力芯片的现状与困境。同时，我们也将追踪DeepSeek R2发布的“乌龙”传闻——竟是其上一代模型AI自己的“幻觉”所致？

当全球AI竞赛进入算力决战阶段，DeepSeek作为国内的希望之星，它的每一步都牵动人心。国产AI算力能否突破重围，支撑我们走向真正的AI强国？观看完整视频，了解这场AI算力之战的幕后故事。别忘了点赞、订阅并分享你的看法！

###
#DeepSeek #华为 #AI芯片]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。" width="900" height="506" src="https://www.youtube.com/embed/RfBUVJ6pHTI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>8月14号，英国金融时报发了一篇报道，说Deepseek R2模型之所以难产，是因为在使用华为升腾芯片训练的时候，持续遇到了技术问题，最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队，常驻在Deepseek，手把手帮忙调教升腾服务器，但仍然无法完成训练。无奈之下，Deepseek只能退回老路训练，重新切换回性能更加可靠的Nvidia的GPU，升腾芯片仅退居辅助，用于模型推理环节。</p>



<p>虽然没有华为和Deepseek官方的回应，也没有他们的辟谣，但是呢，据说是援引了三位知情人士的一些说法，也进行了很多交叉验证，所以这个事情呢，大概率是真的。</p>



<p>国运跟国运相碰撞的时候，升腾也号称是国运级产品，Deepseek肯定是国运级产品，为什么是升腾不灵呢？升腾芯片是可以替代的，也还有一堆竞争对手，所以出现问题以后，他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶，但是地位是不一样的。升腾和国内的其他算力芯片，以及其他那些大模型，从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候，必须是升腾不行了，不可能是Deepseek不行了。</p>



<span id="more-2469"></span>



<p>大家为什么会这么期待Deepseek R2呢？现在又有千问3，也有Kimi、Mini Max，还有豆包等，有一大堆的这些模型出来，怎么就只有Deepseek才行呢？其他人为啥都不行呢？其实现在呢，很多新的这些模型已经并不比Deepseek R1的性能差了，基本上是可以替代使用的。但是大家依然在期盼Deepseek R2，而且你只要讲Deepseek要出R2了，就会有流量。这个原因其实很简单，因为我们在跟国外的大模型竞争中打不过了。</p>



<p>国外已经进入了10万级芯片的训练时代了。Llama4，40万块H100训练出来的。虽然Llama4翻车了，但那也是10万块。而马斯克XAI的Grok 4，20万块H100训练出来的，效果相当不错。GPT5的话，现在推测也是20万块H100训练出来的。Anthropic的Claude 4，据说呢是40万块H100，但是呢它这个数并不是那么准确，40万块H100呢是一个部署的数量，并不是精确的训练的数量。另外一个没说的是Gemini 2.5。Gemini的2.5是没有公开数据，因为他们家使的TPU，其他人都是使的GPU，所以呢没有办法去比较，但应该也是几十万块H100的一个算力，才有可能训练出Gemini 2.5来。</p>



<p>以前是一个国外大模型特别强，特别是GPT4压着所有的模型的时候，我们终于期盼到了Deepseek R1一出来，觉得我们好像又可以了。但是现在我们发现，国内的大模型跟国外这些明显有差距了。我们只能再去期盼Deepseek，因为其他这些肯定是追不上的。那没有20万块H100，这个日子就没法过了。国内的算力芯片呢，大家也都知道不是那么靠谱。这个时候大家期待的就是奇迹了。</p>



<p>Deepseek V3、Deepseek R1，他们呢号称使用了2,048块H800，还不是H100。他们这个算力转换，可能也就是1,000多块H100。拿这样的算力就直接训练出来了，大家觉得你们可以用很少的卡训练出来，还可以震惊世界。现在我们还搞不定20万块的H100，是不是依然可以期待Deepseek再创造一次奇迹呢？</p>



<p>Meta花了好多钱收入进去的亚历山大王曾经在接受采访的时候说，Deepseek手里头有5万块H100，压根就不是他讲的几千块就给这事搞定的事。而且呢，新加坡3月份还抓了一些向大陆走私英伟达芯片的人，有传闻说这些芯片的采购方里边包括Deepseek。</p>



<p>Deepseek呢也正式做出过回应，2025年2月份做了回应。Deepseek强调，仅使用了2023年合法采购的H800芯片，其他我都没用。但是讲完了这个以后，甭管你原来这个东西到底有还是没有，你讲这个话以后肯定就不能再用了吧？所以呢现在大家期待说，这个反正你们原来是这么讲的，我们就这么信了。那以后呢创造奇迹也只能是等着你了。哪怕是使用H20芯片，用很少的芯片训练出来，堪比20万块H100芯片训练结果的这种奇迹，也不是完全不可能吧？这个怎么说呢，人有多大胆，地有多大产吧。我们总还是要有一些希望吧。</p>



<p>新的模型没有出来，但是新的论文呢，Deepseek其实一直不断在产生。在V3跟R1之前，Deepseek也没做什么铺垫，这不也就突然蹦出来了吗？他是这样去期待这个Deepseek的。</p>



<p>原来讲是8月15号到30号之间要发新版本，最后Deepseek自己出来辟谣说：“对不起，我们发不出来。”英国金融时报出来说，被这个升腾给拖累了。那这消息是怎么传出来的呢？Deepseek原来是有没有说过自己要去发Deepseek R2这件事呢？</p>



<p>首先呢，是Deepseek R1震动了世界，应该是在2025年春节前后的时候，我印象里特别深刻。Deepseek R1出来以后，我还连续做了很多天的直播来跟大家讲这个事情。国际大厂呢，在Deepseek R1的这种搅动之下，纷纷转向。转向什么呢？主攻数学、科学与编程，然后呢是长上下文、工具调用和agent，以及指令依从、降低幻觉。</p>



<p>数学跟科学这块呢实在太难了，这个咱们不擅长，而且那个你真的是需要可能10万块、20万块卡，你才可以把这事搞定，咱们没有。那编程呢基本可用，国内的这些模型做编程，肯定没有Anthropic的Claude 4好用，但是呢也基本上可以跑。长上下文、工具调用和agent这块呢，包括指令依从这一块呢必须要有，这一块其实国内的大模型基本上已经追上了。剩下的呢降低幻觉这事咱们就不谈了，反正有幻觉还是可以甩锅的事情。全面开源，这个是国内大模型真正卷的地方。千问直接把200多b的模型直接就开源出去了，Deepseek 600多b的模型直接开源出去了。这件事情我们在努力的往前走，所以各有所长吧。基础设施这块、数学科学这部分实在是费劲，大家就期待Deepseek来再创辉煌了，其他人就不管了。</p>



<p>Deepseek发R2这件事呢，其实传了两回。一回呢5月份，风起云涌。每一次说Deepseek要出R2的时候呢，都是风起云涌的时候，大家都在上新模型，说呀Deepseek你也得上，所以就会开始给他传这个事儿。</p>



<p>今年5月份，发生了一些什么样的事情呢？首先呢Claude 4、Opensource和sonnet这些模型直接出来了，王炸。5月份开谷歌IO，Gemini 2.5 Pro和Gemini 2.5 Flash直接发布，这个其实现在已经是我的主力模型了。GPT呢当时倒是没有什么特别大的动作，上了一个Deepseek 4.5，但是呢也没有引起特别多的响动。大家就说Deepseek你们也该来了。但其实呢Deepseek没有去出R2，而是把Deepseek R1的模型稍微的小步更新了一点点。</p>



<p>6月26日，the information就做了一个报道，说Deepseek R2原来计划是5月份发布的，但是呢因为梁文峰对于Deepseek R2表现的性能不是很满意，决定推迟了。路透社呢也引用了the information的这个报道，国内的媒体呢也纷纷去引用。但是这件事呢，并没有得到Deepseek官方的回应。Deepseek这个公司就是这样，他基本上不怎么回应大家的这个响动。你们猜吧，猜完了以后我也不理你，除非是有一些太过分的，否则他一般不说什么。</p>



<p>Deepseek呢也不是说没更新，就是做小版本更新。像Deepseek V3出了0324版，也就是2025年3月24号出了一个版，把分数又往上刷了刷。因为每一次去更新这些模型，一定要刷分数上去。代码能力，特别是前端代码能力呢，有所提升。拿这玩意写个网页没什么问题，但你说我要做一些大的架构，或者做一些这种后端的东西，可能就要稍微费劲一点。做算法的东西要费劲一点。为什么？因为它Deepseek有一个问题，就是它的上下文比较短，想去做一些大的架构上的东西，你必须上下文长，你得能把整个代码塞进去才行，这块还是要费点劲的。然后他把中文写作能力做了一些提升，Deepseek其实一直在努力的方向，就是中文推理。因为在海外的这些模型，很多都是使用英文推理，然后再翻译成中文的。他说我们直接用中文推理这个事，是不是OK？他们一直在努力干这件事情。使用体验上呢也有所提升，特别是function call更加准确了。在做AI agent的时候，其实核心就是function call的能力，就是我们先描述一堆的功能，然后交给大模型，大模型在完成整个的语言生成的过程中呢，去根据你描述进来的这些function，去决定我要调哪个、不调哪个，或者如何去调用、什么时候调用。Deepseek V3 0324呢，就在这一块做了一些增强。</p>



<p>Deepseek的R1呢，其实也更新了一个版本，就是0528。大家在传说Deepseek要出R2，讲的其实就是0528的这个版本。而这个版本呢，其把这个分又往前刷了刷，减少生成的一些错误信息。因为Deepseek最大的让大家无法忍受的东西是什么呢？就是胡编乱造，他太喜欢瞎编了。所以在这一块呢，稍微做了一些调整，但是依然胡编乱造的很厉害。Deepseek 210528呢，还支持了Json输出和function coding，提升了调用的准确度，但是呢不能叫R2。这就是5月28号的这个版本。</p>



<p>紧跟着就开始传说了，说8月15号到8月30号，要准备发布Deepseek R2了。这个消息是怎么来的呢？首先肯定还是要风起云涌一下。8月份发生了些什么事情呢？马斯克XAI的GROK4发布了，Anthropic又发布了Claude 4.1 Opensource，OpenAI发布了GPT5。GPT5这东西到底好不好使，大家各自去领会。大家可以认为说，GPT5是一个划时代的产品，但是也可以认为说，GPT5就是山姆奥特曼为了要去忽悠融资去搞的一个事情。因为GPT5出来以后，OpenAI的估值已经正式从3,000亿美金提升到5,000亿美金了，而且是孙正义要去买这个单，说您这5,000亿美金我认了，我去买去。</p>



<p>所以呢8月份风起云涌了。那么空穴来风呢，你这事怪不得别人。在Reddit上有人发了个帖子，这个帖子特别有意思，他说他去问了Deepseek R1：“Deepseek R2什么时候发布？”他等于是把这个东西交给Deepseek R1了。但是大家注意，Deepseek R1这个大模型呢，它并不代表Deepseek这公司的一些官方的观点，只是说这个模型给你生成了这样的一个结果。Deepseek R1回答了：“8月15号到8月30号之间发布。”而且号称呢是引用了雪球和东方财富等可信的信源，而且进行了多个渠道的证实。</p>



<p>Deepseek R1的幻觉其实一直都是很严重的，虽然经过0528的调整以后，但依然很吓人。而且Deepseek R1的最大幻觉是什么？就是编造可信的信源。说我从哪哪引用了，你点进去以后，压根就没有这篇文章。但是甭管怎么说，这个文章就在Reddit上就贴出来了，随后呢这个消息就逐渐的被传播和放大了。国内的很多的媒体、自媒体就开始引用这篇消息，特别呢是华为下边的一些科技媒体进行了转载。而且呢在标题里边还夹带了私货，讲的是什么呢？讲的是深度求索，就是Deepseek这个公司，“升腾芯片版本Deepseek R2预计在本月发布”。它讲的就是说，它是使用升腾芯片来去做训练的。</p>



<p>华为都说了，两大国运级产品强强联合了，那信吧，这事怎么办呢？国内一帮的媒体就冲上去说：“我们信了，确实是有这事了。”到8月14号，英国的金融时报出来报道，说升腾芯片拖累了Deepseek 2。然后动点科技、腾讯科技就出来辟谣，原引自公司内部人士，也就是Deepseek这公司里边的人说了，说8月份不会发布Deepseek R2。所以呢，8月15号到30号之间发布Deepseek R2的一个消息，实际上是Deepseek R1自己编出来的，其他人把这个编的信息信了，直接截了个图发到这个Reddit上，以此来发酵出来的一个过程。</p>



<p>那么Deepseek R2到底遇到了一些什么样的问题呢？首先升腾芯片确实是有问题的。升腾910C的这个芯片，虽然单芯片的算力在部分指标上呢，已经达到了H100的水平，但是呢显存的带宽不够，想从显存里调数据回来，速度是没有H100快的。而且最大的问题是什么？就是多个芯片之间的速度，就是我需要把数据在多个芯片之间进行流通的时候，这个速度是相对来说比较差的，而且差的很远。你要想去做同样的训练的话，你就需要更多的时间全功率的去运转。因为你想，人家都已经达到20万块H100这样的集群的规模再去训练新的模型了，你没准就是需要这个50万块或者60万块升腾910C串在一起，才能达到人家那个算力，而且你需要很长的时间去连续的运作，这个对于升腾910C的这种考验来说就比较大了。</p>



<p>这样的芯片，其实是没有办法长时间稳定地去运行的。并不是说训练一个模型，这头输入进去数据，过三个月去开盖看结果。中间每过一段时间，可以取得阶段性成果，再继续往下训练。但是中间这个过程呢，你是不能停的。你中间比如说准备了一批数据，你去训练了，如果这批数据没有训练完，升腾910C就直接冒烟了，就不干活了，这一波呢就白干了，你必须要从这个节点接着往后干。这个玩意有点像什么？有点像打怪升级，你一定要打死这个妖怪才能存盘，你没打死这个妖怪就不让你存盘。升腾910C在这块差一点。</p>



<p>那为什么差呢？升腾910C呢，是两个910B堆叠在一起的，散热肯定会出问题。就算是上了液冷以后，依然是搞不定这个事情。</p>



<p>其实同样的坑，英伟达也踩过。大家还记得H100独挑大梁好久了吗？很多人应该还是有印象的。甚至呢到现在为止，H100已经成为一种计量单位了。现在我们再去算说：“你这个算力相当于多少英伟达芯片呀？”我们都是以H100的这个算力作为一个计量单位的。就是因为H100挺长时间在那孤独一只。为什么它会孤独一只呢？本来计划替代H100的这个产品叫B100，叫Blackwell黑井100，这个芯片直接就跳票了。研究完了以后开了发布会，开完了以后，这个芯片压根就没有大规模的部署，也没有交付。为什么呢？就是他做的就是这种堆叠技术，导致散热失败。散热失败了以后会直接把版卡烧掉，这压根就没有办法去交付。到H200出来了以后说：“那这咱交付这个呗。”但是一开始依然是受困于散热问题，导致了大规模交付的延迟，一直到今年才开始去交付H200。</p>



<p>后面的工艺呢不断的进步，再加上全面液冷。H100这些机器是可以进行风冷的，你拿风扇吹它是OK的。但是到H200这个机器开始交付的时候，你必须是液冷。而且这种液冷呢，还不是种普通的液冷，叫完全浸泡式液冷。见过这种游戏主机装机视频的这些人，会知道他们那个液冷是怎么做的。他在芯片外面给你涂散热的胶，然后呢把这个液冷管贴上去，靠这个液体呢快速的把你热量带走到外边，再去找风扇把这个水给你吹凉了，再重新循环，它是这样来工作的。但是这种工作方式对于H200来说还是不行的，它必须是全浸泡式的，就是把整个的H200的芯片，或者包括它整个的板卡，一起泡在这个液体里头。这就肯定不是水了嘛，是一些不导电的水，整个泡在里头，才能够达到散热的这个能力。</p>



<p>当然了，甭管是英伟达也好，还是升腾也好，散热都是有问题的，导致什么呢？就是液冷概念股都涨疯了。你只要说我这公司是做液冷的，就赶快涨。而且现在都是浸没式液冷，就把整个板卡都泡里头。A股上强瑞科技、英维克、深林环境、飞龙股份，大概有十来家公司，都是专门做液冷的。飞龙股份是专门给升腾这个384超节点做液冷的。美股那边的话，有一个叫VERTIV的一个公司，它的代码是VRT，是专门给英伟达做液冷的公司，这个公司的股票也是涨的可好了。</p>



<p>讲回来，910C这个芯片连续的做长时间训练的话，液冷也压不住，直接把板卡烧掉。即使是有大量的华为的工程师坐在Deepseek公司里头，出来我帮你调，他也调不过去。实际上这些华为工程师能调什么呢？他们只能调一件事，就是CUDA里头没有实现的部分，我来帮你去实现一下。华为的这个升腾910C，他们使用的训练相关的代码的话，是华为自己开源的一套训练框架。这套框架据说是可以实现CUDA 70%的功能，但是还有30%你是实现不了的。那这一部分由华为的工程师到现场来搞定。再怎么搞，该冒烟、该着火、机器直接停摆，这个事它是解决不了这问题的。</p>



<p>另外一个传闻，DEEPSEEK R2出不来的原因是什么呢？是数据标注的质量跟速度不过关。这个呢也没有得到官方的证实，也是坊间在流传。因为在中国嘛，很多的数据肯定还是需要去审核一下的，这个审核的过程是相对来说比较麻烦的。</p>



<p>而且Deepseek呢，其实一直也是一个比较低调的公司。提前预热，不停的出来吹牛，这件事呢是容易翻车的。山姆奥特曼每次出来讲GPT5，说：“我太震惊了，我从来没见过这么棒的。”等GPT5发布的时候，大家说：“这就能让你震惊了？您到底是眼皮子有多浅？”马斯克在发布GROK4之前，也在说：“这是我所见过的最聪明的大模型。”也有人认为老马吹的有点过头了。</p>



<p>其他的公司都必须不断的发模型，跟着一起卷，不断的来吹牛，这个事是有原因的。为什么？因为这些公司是需要融资的。马斯克发GROK4发完了以后，马上就给XAI去融资。山姆奥特曼GPT5发完了马上融资，这公司直接值到5,000亿美金了，他现在已经是没有上市公司里头最贵的一家了。第二家应该是SpaceX，再往后是3,000多亿的字节跳动。但是大家注意，字节跳动的收入现在好像已经超过Meta了，这个是非常吓人的一个事情。所以这些人他有融资的需求，你就必须得不断的出来炒这个热点。不炒的话，你说我现在想提高估值，融资这事费劲了。而且现在Anthropic也在融资，而且是要按照1,500亿美金的估值要去融资，我估计他们后边的日子不是那么好过，现在他们的CEO应该已经奔中东，找中东土豪去给钱去了。</p>



<p>谷歌呢虽然不需要融资，但它后边有股市、有股价、有市值这些东西，所以呢不能落后，所以谷歌也必须要不停的推陈出新。实在做不出来东西呢，确实哪块也做的不太行，怎么办呢？你还可以像扎克伯格那样，表演抢人大戏这种行为艺术。我发2亿美金的薪水，我把人抢回来。虽然你的Llama4像屎一样，Llama再往后怎么走谁也不知道，但是看到你表演行为艺术表演的这么热闹的话，Meta的股价涨的也还可以。所以大家必须不停地去表演。</p>



<p>但Deepseek自己，他没有这种融资的需求，所以呢也并不太需要出来表演，自己踏踏实实做自己的事就好了。至于说他到底做成什么样，咱们也只能在外边来看。</p>



<p>大家有没有想过这样的一个问题：到底是谁家的芯片能够训练大模型呢？训练跟推理是完全两个不同的概念。训练你是必须要长时间高强度的工作，而且在中间是不允许停的。而且在训练的过程中，我们需要在更多的芯片之间进行数据的调度，更更大规模的这种协同。国内的这些算力服务器都搞不定这件事情，他没有办法说让这么多的芯片相互之间进行协调的情况下，这么长时间稳定的工作下去。推理的话相对来说要简单一些，可能只要几个芯片读出很少的数据来，他就可以把这事干完。比如说我们去提了一个问题，他给我们过了几秒钟做了一个反馈，反馈完了以后呢，他就可以再给我们分配其他芯片了。在这个过程中，芯片出现任何的问题，过热了或者说你对资源进行切换了，它是不影响的。所以呢推理咱们国内的这套系统是可以的，但是训练搞不定。</p>



<p>那么到底谁家的芯片可以做训练？英伟达这个必然是可以的。除了英伟达之外，还有哪些芯片可以进行大规模的这种模型训练呢？你说我这个芯片训练了一个10B的、20B的模型，这不算。或者说你说我这个虽然能够训练，但是我训练的模型从来没有人用过，这个也不算。现在唯一证实了可以进行大规模训练的，而且是训练这种大模型的，还被大家普遍接受和使用的，猜猜是谁？</p>



<p>很多人可能会猜是不是AMD？AMD MI300，或者现在应该是MI三百零几了吧，这样的一个芯片。不是他们。现在唯一的一个能干这个活的人，是谷歌的TPU。Gemini大模型是在上面训练出来的，Anthropic的Claude模型有部分声称是在TPU上训练的。除了英伟达之外就是他们了，再没有第二家了。</p>



<p>那老牌厂商像AMD、英特尔，号称我这个芯片是可以进行大规模的模型训练的，也给出了一些用他们的芯片训练大模型的实例，甚至呢还训练了一些不太流行的小模型拿出来去开源，但是他们训练出来的模型也没人用。AMD跟英特尔呢，一般大概也就是10B或者20B以内的这些小模型。另外一个呢就是富士通，富士通用一款ARM的CPU呢，也训练过一点可能也是10B以内的这种小模型吧，也没有听说过谁去用他们。</p>



<p>其他的一些ASIC芯片呢，也是号称自己能做。所谓ASIC芯片呢叫专用集成电路，像升腾、谷歌TPU呢都属于ASIC。亚马逊、阿里、百度呢，也都号称可以进行训练，但是呢没有实例。亚马逊号称是我拿自己的ASIC芯片呢，做了一些训练，也有几个模型，但是呢谁都没用过。OpenAI的模型，有些据说是在亚马逊上进行训练，但这个事呢，也没有得到最终的证实。百度呢是号称自己设计的ASIC芯片可以去进行训练，但是反正百度自己家的模型烂的跟屎一样，我们就不去评论了。</p>



<p>至于华为的升腾芯片呢，科大讯飞号称是在上面训练的。但是呢也有朋友跟我讲说，科大讯飞其实是在英伟达上训练出来的，只是呢对外宣称是在升腾上训练的，这个我们就不去做考证了。只是科大讯飞的模型，其实也没有那么普遍，除了一些教育领域里头有些人会去用，其他的让你自由选择的时候，很少有人会去选择用科大讯飞的模型。华为呢自己号称是在升腾模型上训练了盘古大模型，但是呢前面被内部的人指责蒸馏、指责抄袭，之后就不再有任何声音了。所以现在华为已经不再提他的盘古大模型这事了，估计是准备装一段时间的死狗以后，再次遥遥领先。所以华为的升腾模型，其实没有证实过训练成功过任何的大模型。Deepseek R2呢，应该是真的尝试过，但是败下阵来。</p>



<p>华为跟Deepseek官方呢，都没有出来证实，就既没有出来说我用了，也没有出来说我没用。所以呢升腾芯片，没有成功的训练出过任何一款大家普遍使用的模型。</p>



<p>那么国内的算力芯片是怎么样去竞争的呢？英伟达大概占54%，就一半多。升腾呢占28%，其实已经占的非常非常多了。像寒武纪等等其他的一些芯片公司的，所有的加在一起，可能还加上AMD的吧，一共占18%。这个大就是国内整个的算力芯片的一个分布情况。</p>



<p>国产的芯片呢，目前来看都是可以去做推理了，但是呢没有哪一个真的跑出来模型过。所以国内的算力芯片，基本上是没有办法做训练的。</p>



<p>现在呢还有一群的“赢学家”在鼓吹英伟达芯片里头有追踪器。但是这些“赢学家”呢，现在有点吹不下去了。他说呀：“这个英伟达的芯片里头，是不是在集装箱里装追踪器了？”还有人说：“是不是在包装箱里装追踪器了？”或者是说：“在服务器里边装追踪器了？”因为他们也知道，在这个芯片里头是装不上的。还有人说：“H20这里头肯定没有追踪器，但是呢H100、B200这个里头有追踪器。”这个呢都想多了。因为中国人是经历过挖矿的，我们是完完全全可以把芯片整个扒下来，重新拿新的版卡去焊。而且大量的，其实做英伟达版卡的公司就在国内，所以我们完全可以拿他的版卡，自己回来去加工这个事情。装追踪器这个事是没用的。</p>



<p>中国官方对于H20的态度呢，也很暧昧。有人就到外交部的新闻发布会上就问：“说你们是不是要准备禁售H20？”外交部的新闻发言人回答是：“没听说过这件事情。”中国的这些官员回答，一般都不会说是或者不是，通常回答是：“请你看以前的表态”，或者“请你看有关部门的表态”，或者说“我不知道”、“没有听说过”。所以他这一次的回答叫“没听说过”。</p>



<p>中国政府呢，也没有明令禁止说我们去销售H20或者谁去买这东西。但是呢潜规则就是这样去运营的。多家媒体，比如说Bloomberg、Marketwatch就做了些报道，说中国的监管部门针对H20芯片表达了强烈的不信任和谨慎态度，尤其是强调相关芯片可能存在后门的风险和数据隐患，建议企业回避在政府或敏感用途使用H20。所以呢这些H20可能最后去做训练就完了，推理的这块就通通交给国内的升腾384超节点就OK了。</p>



<p>还有报道说字节跳动、腾讯、百度等企业被召集，这些人是准备去买H20的。国内的有关部门把你们都召集一块说：“你们为什么要买这东西？买多少？”给他们开这样的会。监管侧重国家安全与网络安全审查，并未提出商业禁令，就是我们还是让你买，但是你买之前呢，我们得把你拎来稍微恶心恶心。所以现在都约谈过了。</p>



<p>总结一下吧。Deepseek R2呢确实是难产了，肯定的没有出来。国内的算力芯片目前呢，也无法进行大规模的模型训练，可以进行推理这个事没问题了，但是训练搞不定。20万块H100量级以上的大模型训练，国内很难突破。如果20万块串在一块可以训练大模型的话，我们可能至少需要40万块或者50万块，比如像升腾910C这样的芯片凑在一起，而且我们所需要消耗的电和时间，可能都是要呈几何级数上升的。因为我们卡之间的联通的速度是相对来说比较慢的。所以比如说H100，它也不是说一直就不坏，它可能工作个20个小时或者是40个小时都会坏一次，会出现问题，对于老外来说就可以去接受了。对于我们来说呢，我们可能要求要连续坚持500个小时不出问题，才能够回收回来数据了，因为算的慢嘛，真的达不到。大概就是这样的一个情况。</p>



<p>国内算力卡的这些供应商呢，很有可能会阻碍中国大模型的进展和训练。为什么呢？自己做不好，你又不让别人买H20，可能中国的大模型再往下一步走，就会变得非常非常困难了。</p>



<p>未来国内算力卡是不是可以训练大模型呢？反正一两年之内呢稍微有一些困难吧。国内的大模型到底能不能用呢？基本还是能跑的。高深的数学、科研研究、物理学或者这些基础学科，我们不去研究了。就是让你去做一些信息整理，现在国内大模型基本上都是可以用的。</p>



<p>还是稍微耐心地等待一下Deepseek的慢慢发展吧，它反正中间只要不需要融资，它也不需要出来吆喝，万一有惊喜呢？这个也不好说。这就是我们今天要讲的故事。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>小米玄戒O1芯片发布：是雷军引领国产手机芯片技术突破的雄心开端，还是效仿华为麒麟为小米汽车YU7营销造势的短暂序曲终将落幕？</title>
		<link>https://lukefan.com/2025/05/27/%e5%b0%8f%e7%b1%b3%e7%8e%84%e6%88%92o1%e8%8a%af%e7%89%87%e5%8f%91%e5%b8%83%ef%bc%9a%e6%98%af%e9%9b%b7%e5%86%9b%e5%bc%95%e9%a2%86%e5%9b%bd%e4%ba%a7%e6%89%8b%e6%9c%ba%e8%8a%af%e7%89%87%e6%8a%80%e6%9c%af/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 27 May 2025 01:02:01 +0000</pubDate>
				<category><![CDATA[芯片的故事]]></category>
		<category><![CDATA[雷军、小米]]></category>
		<category><![CDATA[3纳米工艺]]></category>
		<category><![CDATA[ARMv9.2架构]]></category>
		<category><![CDATA[WiFi模块历史]]></category>
		<category><![CDATA[中国半导体自主化]]></category>
		<category><![CDATA[中国科技]]></category>
		<category><![CDATA[产业链安全]]></category>
		<category><![CDATA[供应链合规性]]></category>
		<category><![CDATA[华为麒麟对比]]></category>
		<category><![CDATA[台积电代工]]></category>
		<category><![CDATA[国产芯片突破]]></category>
		<category><![CDATA[小米ISP技术]]></category>
		<category><![CDATA[小米YU7 (小米SU7)]]></category>
		<category><![CDATA[小米战略]]></category>
		<category><![CDATA[小米玄戒O1芯片]]></category>
		<category><![CDATA[小米生态链产品]]></category>
		<category><![CDATA[小米股价市值]]></category>
		<category><![CDATA[小米造芯历史]]></category>
		<category><![CDATA[市场营销]]></category>
		<category><![CDATA[手机厂商议价权]]></category>
		<category><![CDATA[手机芯片市场策略]]></category>
		<category><![CDATA[技术壁垒与创新]]></category>
		<category><![CDATA[旗舰手机芯片性能]]></category>
		<category><![CDATA[晶体管数量限制]]></category>
		<category><![CDATA[智能手机行业趋势]]></category>
		<category><![CDATA[松果科技]]></category>
		<category><![CDATA[消费者购买建议]]></category>
		<category><![CDATA[澎湃S1经验教训]]></category>
		<category><![CDATA[玄戒O1未来]]></category>
		<category><![CDATA[玄戒O2展望]]></category>
		<category><![CDATA[科技巨头造芯热潮]]></category>
		<category><![CDATA[科技行业分析]]></category>
		<category><![CDATA[紫光哲库人才]]></category>
		<category><![CDATA[美国芯片管制]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[联发科基带外挂]]></category>
		<category><![CDATA[自研NPU]]></category>
		<category><![CDATA[自研手机SoC]]></category>
		<category><![CDATA[芯片公版与自研区别]]></category>
		<category><![CDATA[芯片战争]]></category>
		<category><![CDATA[芯片盈利模式]]></category>
		<category><![CDATA[芯片研发成本周期]]></category>
		<category><![CDATA[芯片设计制造]]></category>
		<category><![CDATA[雷军]]></category>
		<category><![CDATA[高端手机]]></category>
		<category><![CDATA[高通专利费模式]]></category>
		<category><![CDATA[高通骁龙竞争]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2228</guid>

					<description><![CDATA[家人们！快停下手里的活！小米玄戒O1芯片真的炸场了啊啊啊啊！这是啥？这是国产首款自主设计的3纳米芯片！直接对标国际大厂，硬核到让人尖叫！我真的要哭了，国产科技终于站起来了！😭

先说重点！这颗芯片不是随便搞搞，它背后是小米的一盘大棋！从去年就开始筹划，台积电代工，190亿晶体管，性能直接拉满！虽然现在装在小米15S Pro和平板7 Ultra上，价格5000+，但这波操作明显是为小米汽车YU7造势啊！雷军的心思，咱能不懂吗？卖车才是最终目的！🚗

再来聊聊这芯片有多牛！
1. **工艺逆天**：3纳米第二代工艺，全世界能干这活的也就台积电了！小米直接拿下，合规又硬核！
2. **性能炸裂**：10核CPU，超大核+性能核+能效核，玩光追游戏都不带卡的！🔥
3. **国产骄傲**：虽然基带外挂联发科，但NPU是小米自研，影像ISP也集成得美美哒！

不过实话实说，第一批芯片可能还有小坑，兼容性和稳定性还得再磨合，想尝鲜的家人们可以等等看。但这不妨碍我吹爆它！小米玄戒O1就是国产芯片的起点，未来可期！我已经能想象到O2、O3横扫市场的画面了！😍

最后吼一句：我不允许还有人不知道小米玄戒O1！这是咱们国产科技的里程碑！点赞收藏转发一条龙，冲起来！谁不冲我跟谁急！💪

小米玄戒O1芯片发布：是雷军引领国产手机芯片技术突破的雄心开端，还是效仿华为麒麟为小米汽车YU7营销造势的短暂序曲终将落幕？

小米玄戒O1芯片横空出世，这究竟是小米在自研芯片道路上的全新起点，还是为其小米汽车YU7战略造势的关键一步棋？本文深度剖析这款备受瞩目的3纳米芯片，从台积电代工的合规性细节，到小米借鉴华为麒麟芯片成功营销模式的考量，再到与手机芯片巨头高通骁龙的技术与市场竞争格局。我们将探讨小米芯片从早期澎湃S1的尝试到如今玄戒O1的演进历程，分析其高昂的芯片成本与短期内难以盈利的现实，并展望其在高端智能手机和未来智能汽车芯片领域，是昙花一现还是具备可持续发展的真实前景，以及这一切与小米整体的芯片战略和品牌形象塑造的深层联系。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="小米玄戒O1芯片发布：是雷军引领国产手机芯片技术突破的雄心开端，还是效仿华为麒麟为小米汽车YU7营销造势的短暂序曲终将落幕？" width="900" height="506" src="https://www.youtube.com/embed/-LWq_0vyZc8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲小米玄戒O1，到底是开始还是结束。</p>



<p>首先我们要说，小米玄戒O1呢，是一盘大棋的一部分。为什么呢？曾经有过一个超级成功案例，小米想去抄袭一下。这个超级成功案例是什么呢？在圈子里头，管它叫美国商务部长雷蒙德带货事件。当时是雷蒙德跑到中国来转了一圈，然后华为突然宣布说，我的麒麟9000S做出来了。虽然你台积电不给我做，但是我做出来了，突破了美国的限制。我们要去卖华为手机，但是后边真正卖掉的是什么？卖掉的是各种华为的汽车。这是一个非常非常成功的带货案例，到目前为止没有比它更成功的了。</p>



<p>很多人说华为手机卖的也不错呀，但是你要想清楚一点，这种5,000块钱以上的手机，一年其实卖不了几个呀。真正这个手机厂商卖掉的手机，都是2,000块钱以下的。所以这个5,000块钱以上的手机呢，都是作为品牌形象来树立的。小米现在说我也得搞一把这个事，我们也整个芯片，国内首款自主设计的3纳米芯片。直接出芯片这件事了，其实你怎么算，你怎么都不划算。你自己做个芯片，自己把它装在手机上去，特别是5,000块钱以上的手机，这个东西打死你也挣不回来的，必亏无疑。所以造芯片这件事呢，永远只是营造热点。你把车打爆，这个才是最终的目的。华为玩过了，而且效果很好，那照抄作业就好了呗。小米实际上就想干这么个事。</p>



<span id="more-2228"></span>



<p>这是我们的结论，小米的玄戒O1芯片，就是在为小米YU7造势的一个事情。有人问了说有没有可能是3月29号车祸之后临时起意，我们去造个芯片这个事呢？不可能，这是不行的。向台积电下单到收到货需要12-16周，3-4个月你才能收到货。你再把这东西做成手机，可能还需要一到两个月的时间。所以呢，这件事情的计划，一定是在去年就计划好的。这批芯片应该是去年启动，甚至是去年都造出来了。小米呢，希望靠芯片把车的销量和整个公司的股价和市值直接打爆它。这件事呢一定是规划很长时间了。车祸的事情呢应该是打乱了节奏，现在呢必须按照原来的剧本继续演下去。</p>



<p>5月22号的发布会，原来计划是在4月23号。就很多的像什么汽车之家，都已经发出预告来了。那个时候出了事了，没法去发开这个发布会了。停了一个月，5月22号继续往前走。甚至连雷军自己，对于芯片这个事都不是那么熟悉。这儿呢有一个证据，就是在15周年雷军内部的演讲的时候，他讲的不是玄戒O1，而是想的玄戒零一。他自己把名字说错了。</p>



<p>O嘛，看着像0似的，实际上的意思是什么？O应该是Origin，就是说它是初始的第一个。结果到雷军那给念错了，到这一次开发布会的时候，才把它改正过来，这叫玄戒O1。所以雷军自己主要还是惦记卖车呢。</p>



<p>那么有人就问了，说台积电为什么给小米代工3纳米呢？在会上他并没有讲说这是台积电给他代工的，但是全世界能干这个活的人，也就是台积电了，叫第二代3纳米工艺。首先要注意小米不是华为，没有在实体清单里头，所以台积电给它代工，并没有什么特别大的问题。</p>



<p>第二个，要合规，合美国人的规。美国人要求的是单颗芯片的晶体管数量不得超过300亿，这是2025年的新标准。而玄戒O1的晶体管数量是190亿，仅是限制阈值的63%，完全符合豁免条件。而且呢，美国要求的是你不能造AI芯片，不能造高性能的这种存储芯片，就是HBM，你不能造这个东西。</p>



<p>玄戒O1呢是个手机Soc，虽然它里头有一些NPU，但是呢，它里头是没有HBM的，不在限制的范围内。玄戒O1呢里头也没有其他的这种AI加速的东西，它里头的这个NPU是它自己做的。所以呢，没有受到美国的限制。它的基带还不是自己的，基带是外挂的，联发科的T800芯片。</p>



<p>台积电呢要求16纳米以下制成的芯片，需要在BIS批准的24家封装厂完成测试。小米呢，选择的是日月光中国台湾的和安靠科技美国的，让这些企业给他们做封装，确保供应链全程合乎审核要求。所以他就可以去做去。</p>



<p>代工整个的流程是什么样的？首先，客户资质审查。小米没有进实体名单，且作为全球第三大智能手机厂商，其商业信誉和市场影响力都没有任何问题。这是没有政策风险的。台积电通过尽职调查，确认小米的最终用途不涉及敏感领域。这个东西不是说我把这堆芯片凑起来去装服务器去了，也不是说我拿去军用，这就是造手机的。</p>



<p>第二个，技术参数申报。台积电要把这些参数到美国去申报去。小米需要向台积电提交芯片设计的详细参数，包括晶圆管、数字功能模块、应用场景，由台积电合规部门对照美国的出口管制条例进行逐项审查。</p>



<p>最后呢，是做生产过程的监督。台积电在晶圆制造环节实施严格的技术隔离，确保玄戒O1的生产设备、工艺参数和AI芯片产线完全区分，里头绝对不带混在一起的。同时，代工协议中包含技术回传条款，要求小米不得将台机电工艺逆向用于军事或者超算领域。小米也没这能耐，所以这个事是合规的。</p>



<p>它叫三符合：第一，符合美国出口管制的晶体管数量的阈值。</p>



<p>第二，符合消费级应用场景。造手机嘛，这是消费级的，没毛病。</p>



<p>第三，符合供应链技术合规要求。我到美国指定的封装厂去封装去了，也没毛病，所以他可以在台积电去代工。</p>



<p>小米的造芯之路呢，还是比较波折的。2014年，大家都想造芯，当时我还在猎豹移动去做投资总监，跟小米的团队也一起出去看芯片厂。而且当时不光是猎豹，小米、百度、华为、腾讯、阿里，所有人都在惦记造芯片。是那个时候就是一个造芯片的年代。</p>



<p>为什么呢？当时大家其实并没有想着说我们要去做手机Soc。当时所有的公司都想去造另外一个芯片，那个东西叫什么呢？叫Wifi模块。这玩意干嘛使的呢？是在智能家居上使的。你比如说你做冰箱、做洗衣机，你想要上智能化，你必须要有一个Wifi模块能够连到网上去。但是你管它叫Wifi模块，那个里头其实也有很多东西，它也是个Soc。它里头是有Wifi的东西，有计算的芯片，它里头有个小CPU，有一些存储。你相当于是把一个简单的小电脑装到你家洗衣机上去。</p>



<p>当时大家都在考察这个玩意。电视上是不用这种东西的，电视上是直接使用手机芯片的。除了电视之外，都是需要Wifi模块的，冰箱、洗衣机、厨电、空调，都是需要的东西。</p>



<p>小米呢，是稍微特殊一点，他惦记造手机芯片，其他人其实一般不惦记干这个事。当时小米2014年呢，成立了一家叫松果科技的公司。很多芯片设计相关的项目呢，都是会去成立独立公司。</p>



<p>原因呢，第一个是设计芯片这事实在太贵，所以呢，希望在设计芯片的过程中可以引入一些外部投资，这样的话就相对来说减轻自己的负担。另外一个呢就是，芯片设计公司的报表一般都比较难看，因为你最后如果芯片流片失败，或者说做出来不是特别合适的话，会亏很多的钱。把这种东西合并到主体里头以后，这个会带崩股价的。所以，通常都是独立公司。</p>



<p>那么独立公司呢，就会有些问题，就是他自有自己的心思嘛。这些公司呢跟手机设计部门的沟通就会存在障碍。这些公司呢老惦记说，我做出这个芯片来了，不能光我自己家的手机用，别人也得用。手机设计的部门呢，也都看不太上自己家的芯片。</p>



<p>大家在大公司里边待过的人都知道，内部协调有时候更费劲一些，特别是我们还有不同的股东，还有不同的利益的时候，基本上没法整。像OPPO干掉的哲库科技，就是一个这种独立运营的项目。但是后来的华为海思，还有像小米玄戒，都是集团下属的全资子公司，完全听指挥。像前面这个就没有那么容易指挥动。</p>



<p>大家呢，其实都苦高通久矣。</p>



<p>高通芯片特别贵，尤其是旗舰型号。新款旗舰芯片价格非常高，而且高通的芯片和专利费是分开销售的。购买一颗芯片可能需要几百美金，此外还需支付额外的专利费。更关键的是，专利费的多少决定了芯片功能的开放程度。芯片内部可能已经设计好了所有功能，但如果某些专利费未支付，对应的功能就无法使用。</p>



<p>如果想通过制造更便宜的芯片来与高通竞争，几乎不可能。因为即使今年的旗舰芯片很贵，去年的旗舰芯片价格已经下降。自己研发的芯片可能连高通前年的旗舰芯片性能都达不到。例如，华为的麒麟9100芯片，现在可能还无法与高通的8G1抗衡。</p>



<p>小米在2014年成立了松果科技，其Wifi模块彻底搅动了市场，价格低至20多元，让其他Wifi模块厂商难以竞争。然而，手机芯片的研发并不顺利。小米与联发科合作推出了澎湃S1芯片，用于2017年的中低端手机。这款芯片采用28纳米工艺，而当时市场主流已是10纳米、14纳米和16纳米工艺。雷军当时的想法是，通过降低工艺和减少核心数量来降低成本，但这一策略是错误的。</p>



<p>芯片的真正成本主要与销量相关。一款芯片的研发投入可能高达10亿美金，需要销售2000万到3000万片才能回本。芯片的成本计算方式是基于晶圆价格和良品率。例如，一个晶圆价格为1万美金，良品率为55%，那么每片芯片的制作成本就取决于晶圆上的有效芯片数量，再加上封装成本。</p>



<p>什么？这个封测的成本剩下的就是你要去摊。这个二三十亿美金的设计成本了，你必须是卖够片数，才能够把这个成本摊平了。</p>



<p>旗舰机这种东西呢，是不可能让手机芯片回本的。你比如说高通八根4这种东西，30亿美金的设计成本，现在要求所有的旗舰机都用。那你说能不能把这个两三千万片卖出去？很费劲。小米一年卖掉的旗舰手机大概到不了1,000万，你再加上三星，再加上其他的一些加在一块吧，大概将将能够达到回本或者打平的一个水平，还挣不了钱。</p>



<p>那你说我做这个芯片卖了两三千万片，还挣不了钱，我后面怎么办呢？很简单，今年比如说是高通8根4，等到明年比如说有高通8震5了，那我这8根4的芯片我还接着卖给什么呢？卖给红米，卖给相对来说比较便宜的手机，比如3,000块钱的手机，2,000块钱的手机。这个时候他才能把这个成本彻底收回来。</p>



<p>所以当你去说，我裁剪的很精准，这一个芯片上来以后，发现你打不过人家高通。两年前三年前的芯片性能没人好，然后你的兼容性、你的稳定性都没有人家好，人家还比你便宜，那这个事就没法整了。</p>



<p>像一般高通的这种旗舰芯片，设计出来连着卖三年。今年是卖5,000块钱以上的，明年比如说卖到3,000块钱左右的，后年比如说能够卖到1,000块钱。往上卖三年的话，这种芯片大概能卖掉1亿颗到2亿颗的水平，他是完完全全可以挣得出来的。到后边给你打价格战，你拿他一点办法都没有。</p>



<p>所以跟高通打这个事，你要算清楚芯片的成本在哪。当时呢，小米做的澎湃S1的芯片呢，是用在了小米5C上。用在5C上以后呢就没法整，直接放弃了。你第一次总是有很多很多的坑要踩的，没有那么容易。</p>



<p>在2017年这一次失败以后，松果就基本上算停滞了，大裁员，从几百人最后大概裁到还剩100人。松果说，那咱剩100人干点什么呢？咱做小芯片吧，大芯片咱做不了，做点小的。他们呢，做ISP芯片，叫Image Signal Processor（图像信号处理芯片）。然后呢，再做什么呢？就是快充芯片。小米的充电宝这种快充，这里头要有芯片。然后呢，做电源管理芯片，就是它电手机电池需要管理芯片。</p>



<p>所以呢，他们后来还有很多的澎湃系列的芯片出来，一直到现在为止呢，也还有很多澎湃系列的芯片在。松果说，我们就这么苟延残喘吧。</p>



<p>Wifi模块呢也一直在做，但是Wifi模块是另外一个公司在做，叫绿米联创。这个是小米直接投资的项目，小米后边家电基本用的是这东西。</p>



<p>到2021年，玄戒就成立了。大家注意，松果还在。松果一直到现在还在，分工不一样。其实这些小芯片，松果还在做澎湃系列的芯片。玄戒就是说我要去做Soc，要做这个手机芯片的。2021年成立的。2021年到底发生了一个什么事？雷军一拍脑袋说我要成立玄戒。</p>



<p>2021年，紫光集团因为财务危机跟战略调整，差点没倒闭了，最后进行了大裁员。紫光呢，就属于是当时国家说我们要给你钱，你要去负责中国的芯片产业。但是在2021年，紫光就进行了大裁员，把大量的芯片人员全都给裁了。那小米说，既然有这么多的芯片人才，咱们把他收了吧，咱们自己先囤点。但是囤的也不多，大概囤了几百人。紫光当时应该也是裁了几千人出来。</p>



<p>所以，小米玄戒技术有限公司成立于2021年12月，核心团队很多都是来自于紫光的。玄戒总经理叫曾学忠，原来是紫光展锐的CEO。一部分的紫光被裁员工，是在2021年底到2022年初，就逐渐的加入玄戒了。</p>



<p>玄戒呢，到2023年快速发展。2023年又赶上什么事了呢？OPPO解散了哲库科技3,000人的芯片团队，裁的还剩100人。那么玄戒人数猛增，直接涨到1,000人以上了。反而他总是捡别人的这些人。而且哲库里边是有很多在高通上过班，在海思上过班的人。等于玄戒里头，也有很多非常好的人才了。玄戒整个造车造芯片就是这么一个过程。</p>



<p>那玄戒的这个O1的芯片，到底是不是一个公版芯片呢？什么叫公板？就是说有一个标准的模板，你照着做，就没什么大毛病。以前我们见过公板的主板。比如说英特尔说，我现在要做一个新的CPU，除了做CPU之外，我们还需要做很多的主板上的这种控制芯片。你们应该怎么用这东西呢？我会做一个demo出来，你照着做。</p>



<p>比如说华硕、技嘉，国内可能也有一些主板厂商，就会拿这个公板来改，加一些自己的理解，可以提效或者增加稳定性，降低成本的这些东西，做出自己的主板来。芯片其实也是一样。大家拿谁的公板做arm的？大家都是买arm的专利，然后拿arm的公板去做这些东西。</p>



<p>但是呢，你不要以为说给你个公板，给你个模板，你就能把芯片造出来。不是那么容易的。大部分人拿着设计软件，你是做不出芯片来的。而且芯片这个东西，做的过程中投入是非常非常大，投入大，周期长。很多东西就是你不做一遍，你压根不知道坑在哪。而且你踩过了这些坑以后，你再做，还有新的坑在等你。</p>



<p>你像高通做了这么多年芯片，当年做高通888的时候，不也做成那个小火炉子了吗？</p>



<p>没法去保证每一个芯片都能成功的。</p>



<p>这一次，玄戒呢，基本上使用的是ARM标准的设计。但是呢，它使用的是最新版的ARM标准，用的是MV9.2。要注意，MV9.0是高通最后用的一个版本。华为麒麟、海思也是买的ARM V9.0的永久使用权。后来，ARM没有出V10，就是V9.1、V9.2，现在最新的应该就是V9.2。</p>



<p>这个里边呢，有一个超大核，这个就是小米玄戒里头用的这个超大核。它这个是十个核心：两个超大核、四个性能大核和两个能效大核。这性能大核跟能效大核实际上长得是一样的，只是呢，它们的晶振频率不一样。然后呢，还有两个叫超级能效核，就是两个小核是一样的，但是他又不好意思说小。这个中文是比较博大精深的，所以叫超级能效核。</p>



<p>什么叫性能核？什么叫能效核？什么叫超级能效核？超级能效核就是特别省电，能效核就是比较省电，性能大核呢就是比较费电的，但是呢性能很好。超大核呢，就是当你需要应对一些特别特殊情况的时候，我就把它开起来，绝对让你能够满足要求。但是这种东西呢，就跟兴奋剂似的，你不能一直吃着，一直吃着会烧掉的。</p>



<p>所以，小米的玄戒芯片的CPU就是这样，10个核。它的GPU呢，用的是ARM的标准官方GPU，叫应该叫Immortalize，叫不朽者，G9256核的GPU。所以呢，直接可以玩光追。只是呢，Immortalize这个GPU呢，兼容性不是特别好。你说我都使用ARM官方的这个标准核了，怎么兼容性还没那么好呢？</p>



<p>现在，手机GPU兼容性最好的是高通自己改过的，叫Adreno那个核，它是兼容性最好的，因为它出货量最大呗，所以大家都跟它兼容性，基本上可以达到100%兼容。而这个标准核的话，大概30%-40%兼容吧，但是最好的游戏肯定都兼容了，有些小游戏兼容性要差一些。</p>



<p>它的NPU就是真正做人工智能运算这部分，小米自研的六核NPU，还是有一定的跑模型的能力。小米第四代的ISP，这个是直接做到玄戒O1里头去了。原来ISP都是由松果去研发的，现在松果说我把这个IP放进去，直接集成到全界O1里头去。所以，小米这个影像还是相当不错的。</p>



<p>外挂的联发科的基带，电源管理依然买的是澎湃系列的芯片。那么，高通为什么强大？高通的比如说8根4，现在最新的旗舰芯片，高通是自研了一个架构，就是像苹果M系列芯片一样。苹果M系列是自研架构，高通也是自研架构，是完完全全脱离了ARM里面所有的核心，是两个超大核，六个大核。</p>



<p>都是高通在原来ARM的这个基础上，应该是ARM V9的基础上改出来的。所以ARM一直告他们说：“你不允许改，你必须用我的。”现在他们这官司还打着呢。所以高通的芯片里头，所有的架构都是自己改的，现在已经不再使用ARM的这样Cortex X和A系列的设计了，就完全自己弄。</p>



<p>然后它的GPU呢，是叫阿德里诺830，也都是完全自己做的。而且它这个GPU已经做了五代了，是高通第五代自研图像芯片，这个比ARM官方的GPU兼容性还好。NPU、ISP、基带都是高通自己的，所以在这块上它还是很强的。而且因为它出的量大嘛，它还可以分版本，它分普通版和性能版。咱们都买这高通8根4，小米的15 Ultra和Pro就使用的是性能版，小米15以及红米K8 Pro这个都属于是高通8根4的普通版。</p>



<p>高通才是真正的刀法精准。当我的芯片量足够大的时候，我就可以去刀法精准。如果你的芯片量没有那么大的时候，你就老老实实的去做最好的那一款芯片就好了。所以这一次玄戒去做的时候，说：“我不再像当年澎湃S1似的，我去玩刀法精准了，咱就把所有能堆的都给你堆里头，堆料堆齐，工艺指标直接拉满。没有人在同一个年代里头比我用的更好。”就直接搞这个。你是没有能力去跟高通拼刀法的，因为你压根就没有那么大的产量。</p>



<p>甚至高通8根4还可以再出一个减配版的，叫8S震4。那个是什么？里头用的就是红米Turbo 4 Pro、小米CV5 Pro，包括一些比较便宜的2,000多块钱的手机，就可以用这个。它比这个高通8根3要稍微好那么一点点，要比高通8震4要差那么一点点。芯片卖了，有些技术呢，还需要单独付专利费才可以打开，这就高通玩法。</p>



<p>中国厂商呢，因为支付这种专利费，还被印度政府罚过钱，说：“你把在印度挣到的钱就是付专利费了。”印度认为你这个外汇管控的一些漏洞。小米现在要跟他去打，是根本打不过的，因为这个东西投入很大。这次雷军在发布会上也讲了，说：“这个太难了，一是投入大，第二个是什么呢？保质期短。你今年投入了，你到明年你得换做新的。如果明年不做新的了，这玩意就没了。”</p>



<p>今年3纳米是先进的，等到明年两纳米出来了，你这3纳米就不行了。而且ARM那边没准说：“我今天MV9.2出来了，我明年出MV9.3了，我又做一堆新的这个内核IP出来，你用还是不用？”所以你设计了半天，10亿美金也好，20亿美金也好，你把设计费扔进去了，就管一年。</p>



<p>所以，这个东西是非常非常难回本的。小米这个玄戒到底能不能回本？基本上今年就不用想了，是不可能回本了，估计明年都很难回本。</p>



<p>小米15S Pro和小米平板7 Ultra这两个机器是现在搭载的玄戒O1芯片，但是呢，这两个机器加一块能卖到100万都很难，因为这两个机器都是5,000块钱以上的机器，所以呢，它的量非常小。</p>



<p>它下面还有一堆像高通8根4的机器，你不能不卖。小米1015 Ultra、小米15 Pro、小米15，这些你都得卖，它们是竞争的呀。所以，你想靠这点量把小米玄戒O1的成本背回来，是绝不可能背回来的。</p>



<p>O1想要回本怎么办？它大概也得卖到1,000万颗到2,000万颗，才能把成本回回来。这个的话，必须要去向高通学。比如说今年我是卖到这种5,000块钱以上的机器上了，明年你就要把这个芯片卖到4,000块钱的机器，或者3,000块钱的机器上。</p>



<p>但是呢，你又未必打得过高通。到明年，高通的八根4降价了，你跟他打，你打不过他，这有新的问题出来。而且高通呢，还刚刚跟小米续签了战略合作伙伴合同，多年的，就没有定期说我到什么时候结束的。</p>



<p>所以高通说，你以后旗舰机还是要用我的旗舰芯片，否则的话，可能高通旗舰芯片就不给你了，我不让你首发去了。小米受不了这个，就是我一个芯片厂，我废了就废了，30亿美金我扔还是扔得起的。但是如果手机卖废了的话，这个是不行的。</p>



<p>小米一年是能够卖掉1.7亿只手机的，所以孰轻孰重，大家一定要想清楚。小米的去年大概是卖了1.7亿只手机，921万只平板。5,000块钱以上的占整个销量的6%，3,000-5,000的占15%，2,000-3,000的占30%，2,000以下的占49%-50%。它是这样的一个区间，所以大部分的还都是在2,000以下的。</p>



<p>玄戒的平板跟手机呢，反正在这里呢，并不建议大家去买。为什么？因为它比高通的成本高，性能比高通的差，兼容性也差。而且第一批的话，稳定性一般不是特别好，第一批肯定还有很多的坑。虽然它做了很多测试，但是一定还有很多的坑等着大家去踩。</p>



<p>可能这种芯片要做个那么一两期以后，才有可能能够说相对来说比较稳定一点。那你说玄戒芯片到底是开始，还是结束呢？现在肯定是开始，第一颗嘛，玄戒O1。那么有可能这就到头了，这事就算结束了。</p>



<p>如果小米想接着往前走怎么办？玄戒系列就明年还得再花个10亿、20亿的去研究玄戒O2，甚至后年还要出玄戒O3。</p>



<p>再把现在的玄戒O1降级了，去跟高通的过时的旗舰芯片去打，看看能不能在这种非旗舰手机上接着用。这样的话，让这个玄戒O1的芯片能够用个两三年。甚至有可能说今年翻车了，O1卖的不是很好，或者O1的手机有些问题，今年赔钱，赔了这10亿美金我不要了，明天我再接着干这个事，有可能能够让他一直做下去。但是非常非常难。</p>



<p>而且玄戒要想继续做下去，还有一个很大的这个点是什么？就是你的车得卖的好。如果你的车卖不好的话，这玄戒O1也未必能做的下去。虽然现在学小米的YU7上，这个车上是没有玄戒芯片的。这个车上边，智能驾驶的用的是索尔芯片，是英伟达的；智能座舱用的是高通芯片，没敢把他们家的玄戒O1塞到车上去。</p>



<p>但是他现在发布玄戒O1的唯一目的，就是让大家可以一直的去关注小米，去讨论小米汽车，讨论小米所有这些东西。像当年华为似的，我突破了美国封锁，我做出来什么样的芯片，然后我要去卖汽车。所以呢，这就是玄戒O1要走下去必须要经过的东西。</p>



<p>玄戒O1如果想不结束的话，只能到明年后年看看有没有玄戒O2，有没有玄戒O3。如果到明年玄戒O2没出来，使用玄戒芯片的手机越来越少了，那这个事呢就是绝唱了，他们又开始裁员了。如果到明年有玄戒O2了，到明年再把玄戒O1的芯片下放到，比如说3,000块钱、4,000块钱的这个手机上去，小米的这个玄戒系列就有可能能够坚持的再往前走一走。它就是这样的一个情况。</p>



<p>所以到底是开始还是结束呢？我们还是有得看的。好，这就是我们今天的第一个故事，这是小米玄戒O1到底是怎么回事。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
