<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>推理 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%e6%8e%a8%e7%90%86/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Thu, 13 Nov 2025 00:54:33 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>推理 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>AI教母李飞飞万字长文戳破LLM泡沫：生成语言只是起点，无法理解真实世界才是致命伤｜空间智能 Fei-Fei Li 世界模型 人工智能 AI的下一个前沿</title>
		<link>https://lukefan.com/2025/11/13/fei-fei-li-spatial-intelligence-world-models-future-ai/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Thu, 13 Nov 2025 00:54:30 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[4D空间智能]]></category>
		<category><![CDATA[AI发展方向]]></category>
		<category><![CDATA[AI教母]]></category>
		<category><![CDATA[AI的下一个前沿]]></category>
		<category><![CDATA[Fei-Fei Li]]></category>
		<category><![CDATA[LLM局限性]]></category>
		<category><![CDATA[World Labs]]></category>
		<category><![CDATA[世界模型]]></category>
		<category><![CDATA[交互式AI]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[具身智能]]></category>
		<category><![CDATA[内容创作]]></category>
		<category><![CDATA[大型语言模型]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[时序一致性]]></category>
		<category><![CDATA[机器人技术]]></category>
		<category><![CDATA[李飞飞]]></category>
		<category><![CDATA[物理世界]]></category>
		<category><![CDATA[物理感知]]></category>
		<category><![CDATA[状态预测]]></category>
		<category><![CDATA[生成式AI]]></category>
		<category><![CDATA[科学发现]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[空间智能]]></category>
		<category><![CDATA[视频生成]]></category>
		<category><![CDATA[计算机视觉]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2916</guid>

					<description><![CDATA[卧槽！李飞飞放大招了？💥 AI界“教母”亲笔万字长文预言：空间智能才是未来顶流！🤖 说人话：现在大模型蠢到笑死——画个3:20的钟像乱码，人物一扭头直接“变脸刺客”💔 儿子比老子大？手指头凭空消失？这破AI连我家猫都画不对！😹

空间智能=3D+物理+时间魔法！让AI真正“摸清”世界：钢是硬的、水是流动的、动作有因果…再也不是电子宠物了！🎯 李飞飞还搞出Marble模型，做动画爽到原地起飞～🎉 重点爆笑：她写作套路工整到强迫症治愈！问题→概念→应用，逻辑丝滑如德芙🍫（学渣跪求教程！）

融资2.3亿美金？😅 教授创业嘛…懂的都懂，“为爱发电”永不变😂 但未来5年，AI必须“对齐”空间物理！不然程序员哭晕在厕所（参考：写代码的已失业警告⚠️）

赶紧点赞收藏！💥 刷不到这波=落后十年！评论区甩出你的神预测：AI啥时能画出你对象？👀 #AI预言家 #科技梗王 #空间智能YYDS
（P.S. 老夫亲测：看完秒删，但偷偷转发给了老板…🤣）

标题1：AI教母李飞飞万字长文戳破LLM泡沫：生成语言只是起点，无法理解真实世界才是致命伤｜空间智能 Fei-Fei Li 世界模型 人工智能 AI的下一个前沿
标题2：李飞飞融资2.3亿美金，为何说她可能重蹈覆辙？教授创业的残酷真相远比技术本身更复杂—深度解读空间智能 Fei-Fei Li 世界模型 人工智能(AI) 机器人技术
标题3：别再只盯着大语言模型了！李飞飞预测未来5-10年，AI的核心战场将从语言全面转向物理对齐｜空间智能 Fei-Fei Li 世界模型 人工智能 AI的下一个前沿
标题4：你理解的“空间智能”可能全错了！它远不止3D建模，李飞飞揭秘其真正核心：物理、交互与时间｜世界模型 人工智能(AI) 物理世界 计算机视觉 推理
标题5：我读完李飞飞万字长文，技术细节可能忘了，但这3个思维模型让我受益匪浅，人人可学｜深度剖析空间智能 Fei-Fei Li 世界模型 人工智能(AI) 科学发现
简介：AI教母李飞飞发表万字长文，指出当大型语言模型(LLMs)遭遇瓶颈时，人工智能(AI)的下一个前沿是空间智能。文章深入剖析了当前生成式AI在理解物理世界时的“对不齐”问题，并提出了构建“世界模型”的理论框架与实现路径，旨在让AI真正实现与物理、时间及交互的对齐，推动机器人技术与科学发现的革命。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="AI教母李飞飞万字长文戳破LLM泡沫：生成语言只是起点，无法理解真实世界才是致命伤｜空间智能 Fei-Fei Li 世界模型 人工智能 AI的下一个前沿" width="900" height="506" src="https://www.youtube.com/embed/kjgS_Ir4x1I?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h1 class="wp-block-heading">李飞飞的万字长文，讲述空间智能的未来</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频</a>道。</p>



<p>李飞飞呢，最近发了一篇文章，指出AI的下一个方向。AI的下一个发展方向就是空间智能。这个文章呢是11月11日发表的，非常非常长，上万字。标题呢是《从词语到世界：空间智能是AI的下一个前沿》。教授的长文，读起来还是稍微有一点点吃力，我还是认真地把整个文章读完了。教授呢，未必能够准确预测未来，那是算命先生的工作。但是，教授对未来的预测，还是值得认真研读一下的，特别是这位教授，还是当前AI浪潮的开拓者之一。</p>



<h2 class="wp-block-heading">文章的结构之美：值得学习的写作范本</h2>



<p>第一个特点就是非常的工整。她的文章结构，大家需要去学习一下。哪怕你说我看不懂这文章说什么，还是应该学习一下人家文章怎么写的。上来第一件事是提出问题：现在有些什么样的问题？然后呢，是核心概念的一些解释，对吧？啥叫空间智能？再往后呢，是方法论的一个架构：我准备怎么干？然后呢，是技术实施的一些细节和方法。最后呢，是应用的路径：我这个实施了以后能干嘛使？它是这样的一个完整架构。</p>



<p>每一个大标题下面呢，会有3到5个小标题，每个小标题下面，均匀地分布着描述和说明。它不会像有些人写文章，在某一个小标题下写非常长的内容，其它的显得干巴巴的，不会是这样的，很均匀。学习一下教授的写作方法，还是非常非常有价值的。</p>



<span id="more-2916"></span>



<h2 class="wp-block-heading">李飞飞文章的核心内容解读</h2>



<h3 class="wp-block-heading">第一部分：提出问题——大语言模型的局限性</h3>



<p>咱们说一下这个文章到底说什么了吧。首先呢，是提出问题。大语言模型呢，它只能生成语言，而语言呢，并不能代表世界。语言模型有很多的局限性，已经体现出来了。最大的局限性就是各种“对不齐”。</p>



<ul class="wp-block-list">
<li><strong>与空间和物理规则“对不齐”：</strong>我们希望这个空间，应该有一些什么样的特性，结果发现语言模型生成出来的结果跟这个对不上。或者说，我们希望有一些物理的规则，它应该去遵守，但是大语言模型生成的结果，它不去遵守。例如，儿子比老子大了，或者生成的图片和视频里，人物的手指头数量搞不定。甚至让它画一个带指针的时钟，比如“3:20”，它也画不对。</li>



<li><strong>一致性无法控制：</strong>现在大语言模型所体现出来的问题，就是前后矛盾。比如以图像和视频模型为例，一个人在这站着，一扭过脸去，发现怎么不是这个人了？或者画面不停地闪烁，一会儿看着像，一会儿看着不像。这些都是因为没有空间智能所遇到的各种问题。</li>
</ul>



<h3 class="wp-block-heading">第二部分：核心概念——什么是空间智能？</h3>



<p>很多人可能意识到，空间智能是一个3D空间的事情，但其实呢，空间智能要比这个复杂得多。它除了3D空间之外，还有很多物理特性在里头：这是钢的，那是铁的，这个是木头的，那个是水或者是空气，它都在空间里边。</p>



<p>而且空间智能其实是4D空间，四维空间，还有时间在里头。就是我在里边做了一个动作，在这个动作后面会变成什么样，实际上这是有时序的，而不是一个静态的3D空间。所谓的空间智能，是三维空间、物理，以及动作、交互和时间相结合在一起的“世界模型”。她要给空间智能下这样一个定义。</p>



<h3 class="wp-block-heading">第三部分：方法论架构——世界模型的三个能力</h3>



<p>问题很复杂嘛，我们不能说上来就一榔头开始干活了，首先要提出一个方法论架构来。她认为，世界模型呢，应该有三个能力。</p>



<ul class="wp-block-list">
<li><strong>生成能力：</strong>它依然是一个生成模型，但生成出来的东西，应该能够确保空间、物理和时序的一致性，这是跟传统大语言生成模型的差异。</li>



<li><strong>多模态能力：</strong>多模态呢，是图像、视频、深度、文字、手势、动作都要结合在一起，甚至可能还有触觉这些东西，都要在里边。</li>



<li><strong>交互动作条件下的状态预测：</strong>就是我做了这个动作了以后，会变成什么样？空间智能的模型，是能够对下一个状态进行预测的，甚至呢，对下一步的动作进行预测。</li>
</ul>



<h3 class="wp-block-heading">第四部分：技术实施——如何实现空间智能？</h3>



<p>那怎么实现呢？首先，世界模型要能够显示或隐式地展示3D几何与物理的一致性，而且世界状态必须是可被读写和对齐的。</p>



<p>实现这一目标，离不开数据和训练。具体方法包括：</p>



<ul class="wp-block-list">
<li><strong>数据来源：</strong>利用大量的互联网图片、视频等真实世界数据，并通过计算机进行深度信息标注。同时，也会使用游戏、3D模型等合成世界的数据来进行训练。</li>



<li><strong>训练过程：</strong>训练过程会要求“生成与理解”循环互补。即生成数据后，模型自身再去理解和验证。</li>



<li><strong>推理和控制：</strong>模型的核心是推理“状态 -> 动作 -> 新状态”的演变过程。李飞飞团队正在探索新的模型方式，例如“实时帧模型”（Real Time Frame Model），它可以像视频一样，直接输出下一帧世界会变成什么样。</li>
</ul>



<h3 class="wp-block-heading">第五部分：应用路径——空间智能能做什么？</h3>



<ul class="wp-block-list">
<li><strong>近期应用：</strong>主要用于讲故事、创意和内容生产。她们已经做了一个名为“Marble”的模型，供3D动画和游戏开发者申请试用。</li>



<li><strong>中期应用：</strong>用于机器人和具身智能，让机器人能够真正地理解世界，而不仅仅是依赖语言模型。</li>



<li><strong>远期应用：</strong>进行科学研究，例如在材料学、医药学、分子生物学等领域，利用空间智能构建和探索复杂系统，进行模拟实验。</li>
</ul>



<h2 class="wp-block-heading">老范的思考与评论</h2>



<h3 class="wp-block-heading">教授创业：理想与现实</h3>



<p>李飞飞呢，现在是在创业，她有一个公司叫“世界实验室”（World Labs）。她呢，融资融了2.3亿美金。刚才我们讲了，教授创业未必能够挣到钱。但是呢，她的学生，现在是各个大公司里边的顶梁柱。所以她想去说：“我要一笔钱来去创业的话”，融到钱这件事并不是特别难。</p>



<p>教授创业，通常不太容易有很好的商业回报。教授的学生们，才是真正值得关注的群体。</p>



<h3 class="wp-block-heading">运维、工程与科研：三个不同维度的创新</h3>



<p>运维、工程实施技术和科学研究，实际上是三个完全不同的维度。你说我这给你发个打折券，买几赠几，这个东西呢就是纯运维。那工程技术呢，就是为了实现运维目标，我们在现有已经验证过的这些技术上进行一些实施，这通常教授的学生们会干这些活。而教授呢，会在前头再去研究现在还不确定的那些科学。</p>



<h3 class="wp-block-heading">方法、专利与论文：创新的层级</h3>



<p>大家要注意，方法是不允许申请专利的。而专利呢，一般是一个工程实施上的东西。教授的直属弟子们，她们一般会玩的是什么？是论文。她们会比专利更高一个层级。论文是希望你尽可能多的引用的一个东西。教授真正的得意门生们是去写论文的，而教授要比论文更高一级。但是大家要注意，真正能挣钱的东西是什么？是专利，以及后边这些方法，这是能挣钱的。论文其实很少直接产生收益。</p>



<h3 class="wp-block-heading">空间智能是唯一方向吗？</h3>



<p>讲远了。空间智能到底是不是未来的方向呢？AI的下一个问题肯定是对齐，这个毋庸置疑。但是呢，需要对齐的东西很多。</p>



<ul class="wp-block-list">
<li><strong>空间、物理与时间：</strong>这就是空间智能需要对齐的东西，肯定是AI需要对齐的一个方向。</li>



<li><strong>人性与法理：</strong>这也需要去对齐。</li>



<li><strong>编程：</strong>这是最容易对齐的东西，各种约束都非常容易去验证，所以编程现在是整个AI大模型领域里头，对齐对得最好的一个领域。</li>
</ul>



<p>那么未来的5-10年，实现空间、物理与时间对齐，应该是一个大的目标，这个没有任何问题。但是具体实现的方法，未必像李飞飞当前所设想的这样。她提出的“什么是空间智能”、“为什么要做”以及“要解决什么问题”，这些都是对的。但是后边两块：“具体打算怎么干”，以及“具体做完了以后在哪用”，这一块呢，我们没必要太去听教授的了。</p>



<h3 class="wp-block-heading">一个历史的例子：Pascal语言 vs. C语言</h3>



<p>在这儿呢，跟大家讲一个例子吧，比如说Pascal语言和C语言。Pascal是1968年苏黎世理工大学的教授发明的，主要用于教学。而C语言呢，是1972年贝尔实验室的工程师发明的，后来变得非常普及，Linux、Unix和Windows的早期版本都是用C语言写的。这个工程师呢，应该是硕士研究生，博士论文写了个草稿，但是没有获得学位。这就真的叫英雄不问出处。所以，最后大家去用的东西，未必是教授发明的东西。</p>



<h3 class="wp-block-heading">李飞飞工作的真正意义</h3>



<p>李飞飞的工作呢，还是有巨大的意义的。第一个呢，拉动了社会的关注。她毕竟是AI领域的“教母”，大量的关键岗位都是她的学生。而且呢，李飞飞前面做的最大贡献，是做了一个叫ImageNet的项目。她把大量的图片放进去，让各种的大模型可以用这些图片去进行学习。所以现在呢，李飞飞准备继续做这件事情，继续把大量的数据进行标注，让各种空间智能的模型去进行学习。我们提出标准，你学习到一个什么样的程度，然后怎么去打分，她要把这个事情做出来。所以这件事呢，还是非常非常重要的，就是积累数据和论证各种验证方法。</p>



<h2 class="wp-block-heading">总结</h2>



<p>最后呢，咱们总结一下：</p>



<ul class="wp-block-list">
<li>李飞飞作为AI“教母”发表长文，为空间智能站台。</li>



<li>教授的文章格式必须要学习一下，其结构清晰、逻辑严谨。</li>



<li>空间智能确实是未来十年，行业必须要去解决的一个重要问题。</li>
</ul>



<p>好，这个故事就跟大家讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">Discord讨论群</a>。也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。</title>
		<link>https://lukefan.com/2025/08/18/deepseek-r2%e9%9a%be%e4%ba%a7%e7%9c%9f%e7%9b%b8%ef%bc%81%e9%87%91%e8%9e%8d%e6%97%b6%e6%8a%a5%e7%88%86%e6%96%99%ef%bc%9a%e5%8d%8e%e4%b8%ba%e6%98%87%e8%85%be%e8%8a%af%e7%89%87%e8%ae%ad%e7%bb%83%e5%a4%b1/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 18 Aug 2025 13:35:27 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[华为很厉害]]></category>
		<category><![CDATA[英伟达，NVIDIA，黄教主，GPU]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI芯片]]></category>
		<category><![CDATA[AI训练]]></category>
		<category><![CDATA[AMD]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[B100]]></category>
		<category><![CDATA[Claude 4]]></category>
		<category><![CDATA[CUDA]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Deepseek R2]]></category>
		<category><![CDATA[Function Call]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[Grok 4]]></category>
		<category><![CDATA[H100]]></category>
		<category><![CDATA[H20]]></category>
		<category><![CDATA[H800]]></category>
		<category><![CDATA[Kimi]]></category>
		<category><![CDATA[Llama 4]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[TPU]]></category>
		<category><![CDATA[XAI]]></category>
		<category><![CDATA[中美科技战]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[传闻]]></category>
		<category><![CDATA[千问]]></category>
		<category><![CDATA[升腾910C]]></category>
		<category><![CDATA[华为]]></category>
		<category><![CDATA[华为升腾]]></category>
		<category><![CDATA[国产替代]]></category>
		<category><![CDATA[国产芯片]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型训练]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[开源]]></category>
		<category><![CDATA[技术瓶颈]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[散热问题]]></category>
		<category><![CDATA[浸没式液冷]]></category>
		<category><![CDATA[液冷]]></category>
		<category><![CDATA[深度求索]]></category>
		<category><![CDATA[百度]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[腾讯]]></category>
		<category><![CDATA[芯片战争]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[辟谣]]></category>
		<category><![CDATA[金融时报报道]]></category>
		<category><![CDATA[难产]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2469</guid>

					<description><![CDATA[兄弟们，震惊部又来！FT曝：DeepSeek R2被升腾拖进产房卡壳，华为救火队常驻也拉不动，最后无奈切回NVIDIA 🙃。更离谱：8.15-8.30的“官宣”，居然是R1自己幻觉出来的…😂

现实是：训练≠推理。海外已是10万块H100开团，我们这边910C一热就“打怪不能存档”🫠；液冷得全浸泡，相关股票倒是先起飞了💦📈。真能稳训大模型的，除了英伟达就剩谷歌TPU了。

两大“国运级”相撞，先躺的不是DeepSeek，只能继续等奇迹。DeepSeek不融资不表演，憋大招也许真有可能？点个赞，保佑R2别再难产；评论区站队：N卡、TPU还是升腾，你押谁？🤔🔥

 DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。

揭秘DeepSeek R2发布推迟的真正原因：传闻因华为升腾芯片在关键的大模型训练阶段遭遇技术瓶颈，导致项目被迫换回英伟达GPU。这不仅暴露了国产AI算力在稳定性与多卡协同上的严峻挑战，更凸显了我们在追赶GPT-5、Llama 4等动辄需要20万块H100训练的顶级模型时所面临的巨大算力差距。

本期视频将深度剖析《金融时报》报道的背后细节，探讨为何被寄予厚望的华为升腾芯片难以胜任长时间、高强度的大模型训练任务。从散热问题到多芯片互联速度，我们将层层解析国产算力芯片的现状与困境。同时，我们也将追踪DeepSeek R2发布的“乌龙”传闻——竟是其上一代模型AI自己的“幻觉”所致？

当全球AI竞赛进入算力决战阶段，DeepSeek作为国内的希望之星，它的每一步都牵动人心。国产AI算力能否突破重围，支撑我们走向真正的AI强国？观看完整视频，了解这场AI算力之战的幕后故事。别忘了点赞、订阅并分享你的看法！

###
#DeepSeek #华为 #AI芯片]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。" width="900" height="506" src="https://www.youtube.com/embed/RfBUVJ6pHTI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>8月14号，英国金融时报发了一篇报道，说Deepseek R2模型之所以难产，是因为在使用华为升腾芯片训练的时候，持续遇到了技术问题，最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队，常驻在Deepseek，手把手帮忙调教升腾服务器，但仍然无法完成训练。无奈之下，Deepseek只能退回老路训练，重新切换回性能更加可靠的Nvidia的GPU，升腾芯片仅退居辅助，用于模型推理环节。</p>



<p>虽然没有华为和Deepseek官方的回应，也没有他们的辟谣，但是呢，据说是援引了三位知情人士的一些说法，也进行了很多交叉验证，所以这个事情呢，大概率是真的。</p>



<p>国运跟国运相碰撞的时候，升腾也号称是国运级产品，Deepseek肯定是国运级产品，为什么是升腾不灵呢？升腾芯片是可以替代的，也还有一堆竞争对手，所以出现问题以后，他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶，但是地位是不一样的。升腾和国内的其他算力芯片，以及其他那些大模型，从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候，必须是升腾不行了，不可能是Deepseek不行了。</p>



<span id="more-2469"></span>



<p>大家为什么会这么期待Deepseek R2呢？现在又有千问3，也有Kimi、Mini Max，还有豆包等，有一大堆的这些模型出来，怎么就只有Deepseek才行呢？其他人为啥都不行呢？其实现在呢，很多新的这些模型已经并不比Deepseek R1的性能差了，基本上是可以替代使用的。但是大家依然在期盼Deepseek R2，而且你只要讲Deepseek要出R2了，就会有流量。这个原因其实很简单，因为我们在跟国外的大模型竞争中打不过了。</p>



<p>国外已经进入了10万级芯片的训练时代了。Llama4，40万块H100训练出来的。虽然Llama4翻车了，但那也是10万块。而马斯克XAI的Grok 4，20万块H100训练出来的，效果相当不错。GPT5的话，现在推测也是20万块H100训练出来的。Anthropic的Claude 4，据说呢是40万块H100，但是呢它这个数并不是那么准确，40万块H100呢是一个部署的数量，并不是精确的训练的数量。另外一个没说的是Gemini 2.5。Gemini的2.5是没有公开数据，因为他们家使的TPU，其他人都是使的GPU，所以呢没有办法去比较，但应该也是几十万块H100的一个算力，才有可能训练出Gemini 2.5来。</p>



<p>以前是一个国外大模型特别强，特别是GPT4压着所有的模型的时候，我们终于期盼到了Deepseek R1一出来，觉得我们好像又可以了。但是现在我们发现，国内的大模型跟国外这些明显有差距了。我们只能再去期盼Deepseek，因为其他这些肯定是追不上的。那没有20万块H100，这个日子就没法过了。国内的算力芯片呢，大家也都知道不是那么靠谱。这个时候大家期待的就是奇迹了。</p>



<p>Deepseek V3、Deepseek R1，他们呢号称使用了2,048块H800，还不是H100。他们这个算力转换，可能也就是1,000多块H100。拿这样的算力就直接训练出来了，大家觉得你们可以用很少的卡训练出来，还可以震惊世界。现在我们还搞不定20万块的H100，是不是依然可以期待Deepseek再创造一次奇迹呢？</p>



<p>Meta花了好多钱收入进去的亚历山大王曾经在接受采访的时候说，Deepseek手里头有5万块H100，压根就不是他讲的几千块就给这事搞定的事。而且呢，新加坡3月份还抓了一些向大陆走私英伟达芯片的人，有传闻说这些芯片的采购方里边包括Deepseek。</p>



<p>Deepseek呢也正式做出过回应，2025年2月份做了回应。Deepseek强调，仅使用了2023年合法采购的H800芯片，其他我都没用。但是讲完了这个以后，甭管你原来这个东西到底有还是没有，你讲这个话以后肯定就不能再用了吧？所以呢现在大家期待说，这个反正你们原来是这么讲的，我们就这么信了。那以后呢创造奇迹也只能是等着你了。哪怕是使用H20芯片，用很少的芯片训练出来，堪比20万块H100芯片训练结果的这种奇迹，也不是完全不可能吧？这个怎么说呢，人有多大胆，地有多大产吧。我们总还是要有一些希望吧。</p>



<p>新的模型没有出来，但是新的论文呢，Deepseek其实一直不断在产生。在V3跟R1之前，Deepseek也没做什么铺垫，这不也就突然蹦出来了吗？他是这样去期待这个Deepseek的。</p>



<p>原来讲是8月15号到30号之间要发新版本，最后Deepseek自己出来辟谣说：“对不起，我们发不出来。”英国金融时报出来说，被这个升腾给拖累了。那这消息是怎么传出来的呢？Deepseek原来是有没有说过自己要去发Deepseek R2这件事呢？</p>



<p>首先呢，是Deepseek R1震动了世界，应该是在2025年春节前后的时候，我印象里特别深刻。Deepseek R1出来以后，我还连续做了很多天的直播来跟大家讲这个事情。国际大厂呢，在Deepseek R1的这种搅动之下，纷纷转向。转向什么呢？主攻数学、科学与编程，然后呢是长上下文、工具调用和agent，以及指令依从、降低幻觉。</p>



<p>数学跟科学这块呢实在太难了，这个咱们不擅长，而且那个你真的是需要可能10万块、20万块卡，你才可以把这事搞定，咱们没有。那编程呢基本可用，国内的这些模型做编程，肯定没有Anthropic的Claude 4好用，但是呢也基本上可以跑。长上下文、工具调用和agent这块呢，包括指令依从这一块呢必须要有，这一块其实国内的大模型基本上已经追上了。剩下的呢降低幻觉这事咱们就不谈了，反正有幻觉还是可以甩锅的事情。全面开源，这个是国内大模型真正卷的地方。千问直接把200多b的模型直接就开源出去了，Deepseek 600多b的模型直接开源出去了。这件事情我们在努力的往前走，所以各有所长吧。基础设施这块、数学科学这部分实在是费劲，大家就期待Deepseek来再创辉煌了，其他人就不管了。</p>



<p>Deepseek发R2这件事呢，其实传了两回。一回呢5月份，风起云涌。每一次说Deepseek要出R2的时候呢，都是风起云涌的时候，大家都在上新模型，说呀Deepseek你也得上，所以就会开始给他传这个事儿。</p>



<p>今年5月份，发生了一些什么样的事情呢？首先呢Claude 4、Opensource和sonnet这些模型直接出来了，王炸。5月份开谷歌IO，Gemini 2.5 Pro和Gemini 2.5 Flash直接发布，这个其实现在已经是我的主力模型了。GPT呢当时倒是没有什么特别大的动作，上了一个Deepseek 4.5，但是呢也没有引起特别多的响动。大家就说Deepseek你们也该来了。但其实呢Deepseek没有去出R2，而是把Deepseek R1的模型稍微的小步更新了一点点。</p>



<p>6月26日，the information就做了一个报道，说Deepseek R2原来计划是5月份发布的，但是呢因为梁文峰对于Deepseek R2表现的性能不是很满意，决定推迟了。路透社呢也引用了the information的这个报道，国内的媒体呢也纷纷去引用。但是这件事呢，并没有得到Deepseek官方的回应。Deepseek这个公司就是这样，他基本上不怎么回应大家的这个响动。你们猜吧，猜完了以后我也不理你，除非是有一些太过分的，否则他一般不说什么。</p>



<p>Deepseek呢也不是说没更新，就是做小版本更新。像Deepseek V3出了0324版，也就是2025年3月24号出了一个版，把分数又往上刷了刷。因为每一次去更新这些模型，一定要刷分数上去。代码能力，特别是前端代码能力呢，有所提升。拿这玩意写个网页没什么问题，但你说我要做一些大的架构，或者做一些这种后端的东西，可能就要稍微费劲一点。做算法的东西要费劲一点。为什么？因为它Deepseek有一个问题，就是它的上下文比较短，想去做一些大的架构上的东西，你必须上下文长，你得能把整个代码塞进去才行，这块还是要费点劲的。然后他把中文写作能力做了一些提升，Deepseek其实一直在努力的方向，就是中文推理。因为在海外的这些模型，很多都是使用英文推理，然后再翻译成中文的。他说我们直接用中文推理这个事，是不是OK？他们一直在努力干这件事情。使用体验上呢也有所提升，特别是function call更加准确了。在做AI agent的时候，其实核心就是function call的能力，就是我们先描述一堆的功能，然后交给大模型，大模型在完成整个的语言生成的过程中呢，去根据你描述进来的这些function，去决定我要调哪个、不调哪个，或者如何去调用、什么时候调用。Deepseek V3 0324呢，就在这一块做了一些增强。</p>



<p>Deepseek的R1呢，其实也更新了一个版本，就是0528。大家在传说Deepseek要出R2，讲的其实就是0528的这个版本。而这个版本呢，其把这个分又往前刷了刷，减少生成的一些错误信息。因为Deepseek最大的让大家无法忍受的东西是什么呢？就是胡编乱造，他太喜欢瞎编了。所以在这一块呢，稍微做了一些调整，但是依然胡编乱造的很厉害。Deepseek 210528呢，还支持了Json输出和function coding，提升了调用的准确度，但是呢不能叫R2。这就是5月28号的这个版本。</p>



<p>紧跟着就开始传说了，说8月15号到8月30号，要准备发布Deepseek R2了。这个消息是怎么来的呢？首先肯定还是要风起云涌一下。8月份发生了些什么事情呢？马斯克XAI的GROK4发布了，Anthropic又发布了Claude 4.1 Opensource，OpenAI发布了GPT5。GPT5这东西到底好不好使，大家各自去领会。大家可以认为说，GPT5是一个划时代的产品，但是也可以认为说，GPT5就是山姆奥特曼为了要去忽悠融资去搞的一个事情。因为GPT5出来以后，OpenAI的估值已经正式从3,000亿美金提升到5,000亿美金了，而且是孙正义要去买这个单，说您这5,000亿美金我认了，我去买去。</p>



<p>所以呢8月份风起云涌了。那么空穴来风呢，你这事怪不得别人。在Reddit上有人发了个帖子，这个帖子特别有意思，他说他去问了Deepseek R1：“Deepseek R2什么时候发布？”他等于是把这个东西交给Deepseek R1了。但是大家注意，Deepseek R1这个大模型呢，它并不代表Deepseek这公司的一些官方的观点，只是说这个模型给你生成了这样的一个结果。Deepseek R1回答了：“8月15号到8月30号之间发布。”而且号称呢是引用了雪球和东方财富等可信的信源，而且进行了多个渠道的证实。</p>



<p>Deepseek R1的幻觉其实一直都是很严重的，虽然经过0528的调整以后，但依然很吓人。而且Deepseek R1的最大幻觉是什么？就是编造可信的信源。说我从哪哪引用了，你点进去以后，压根就没有这篇文章。但是甭管怎么说，这个文章就在Reddit上就贴出来了，随后呢这个消息就逐渐的被传播和放大了。国内的很多的媒体、自媒体就开始引用这篇消息，特别呢是华为下边的一些科技媒体进行了转载。而且呢在标题里边还夹带了私货，讲的是什么呢？讲的是深度求索，就是Deepseek这个公司，“升腾芯片版本Deepseek R2预计在本月发布”。它讲的就是说，它是使用升腾芯片来去做训练的。</p>



<p>华为都说了，两大国运级产品强强联合了，那信吧，这事怎么办呢？国内一帮的媒体就冲上去说：“我们信了，确实是有这事了。”到8月14号，英国的金融时报出来报道，说升腾芯片拖累了Deepseek 2。然后动点科技、腾讯科技就出来辟谣，原引自公司内部人士，也就是Deepseek这公司里边的人说了，说8月份不会发布Deepseek R2。所以呢，8月15号到30号之间发布Deepseek R2的一个消息，实际上是Deepseek R1自己编出来的，其他人把这个编的信息信了，直接截了个图发到这个Reddit上，以此来发酵出来的一个过程。</p>



<p>那么Deepseek R2到底遇到了一些什么样的问题呢？首先升腾芯片确实是有问题的。升腾910C的这个芯片，虽然单芯片的算力在部分指标上呢，已经达到了H100的水平，但是呢显存的带宽不够，想从显存里调数据回来，速度是没有H100快的。而且最大的问题是什么？就是多个芯片之间的速度，就是我需要把数据在多个芯片之间进行流通的时候，这个速度是相对来说比较差的，而且差的很远。你要想去做同样的训练的话，你就需要更多的时间全功率的去运转。因为你想，人家都已经达到20万块H100这样的集群的规模再去训练新的模型了，你没准就是需要这个50万块或者60万块升腾910C串在一起，才能达到人家那个算力，而且你需要很长的时间去连续的运作，这个对于升腾910C的这种考验来说就比较大了。</p>



<p>这样的芯片，其实是没有办法长时间稳定地去运行的。并不是说训练一个模型，这头输入进去数据，过三个月去开盖看结果。中间每过一段时间，可以取得阶段性成果，再继续往下训练。但是中间这个过程呢，你是不能停的。你中间比如说准备了一批数据，你去训练了，如果这批数据没有训练完，升腾910C就直接冒烟了，就不干活了，这一波呢就白干了，你必须要从这个节点接着往后干。这个玩意有点像什么？有点像打怪升级，你一定要打死这个妖怪才能存盘，你没打死这个妖怪就不让你存盘。升腾910C在这块差一点。</p>



<p>那为什么差呢？升腾910C呢，是两个910B堆叠在一起的，散热肯定会出问题。就算是上了液冷以后，依然是搞不定这个事情。</p>



<p>其实同样的坑，英伟达也踩过。大家还记得H100独挑大梁好久了吗？很多人应该还是有印象的。甚至呢到现在为止，H100已经成为一种计量单位了。现在我们再去算说：“你这个算力相当于多少英伟达芯片呀？”我们都是以H100的这个算力作为一个计量单位的。就是因为H100挺长时间在那孤独一只。为什么它会孤独一只呢？本来计划替代H100的这个产品叫B100，叫Blackwell黑井100，这个芯片直接就跳票了。研究完了以后开了发布会，开完了以后，这个芯片压根就没有大规模的部署，也没有交付。为什么呢？就是他做的就是这种堆叠技术，导致散热失败。散热失败了以后会直接把版卡烧掉，这压根就没有办法去交付。到H200出来了以后说：“那这咱交付这个呗。”但是一开始依然是受困于散热问题，导致了大规模交付的延迟，一直到今年才开始去交付H200。</p>



<p>后面的工艺呢不断的进步，再加上全面液冷。H100这些机器是可以进行风冷的，你拿风扇吹它是OK的。但是到H200这个机器开始交付的时候，你必须是液冷。而且这种液冷呢，还不是种普通的液冷，叫完全浸泡式液冷。见过这种游戏主机装机视频的这些人，会知道他们那个液冷是怎么做的。他在芯片外面给你涂散热的胶，然后呢把这个液冷管贴上去，靠这个液体呢快速的把你热量带走到外边，再去找风扇把这个水给你吹凉了，再重新循环，它是这样来工作的。但是这种工作方式对于H200来说还是不行的，它必须是全浸泡式的，就是把整个的H200的芯片，或者包括它整个的板卡，一起泡在这个液体里头。这就肯定不是水了嘛，是一些不导电的水，整个泡在里头，才能够达到散热的这个能力。</p>



<p>当然了，甭管是英伟达也好，还是升腾也好，散热都是有问题的，导致什么呢？就是液冷概念股都涨疯了。你只要说我这公司是做液冷的，就赶快涨。而且现在都是浸没式液冷，就把整个板卡都泡里头。A股上强瑞科技、英维克、深林环境、飞龙股份，大概有十来家公司，都是专门做液冷的。飞龙股份是专门给升腾这个384超节点做液冷的。美股那边的话，有一个叫VERTIV的一个公司，它的代码是VRT，是专门给英伟达做液冷的公司，这个公司的股票也是涨的可好了。</p>



<p>讲回来，910C这个芯片连续的做长时间训练的话，液冷也压不住，直接把板卡烧掉。即使是有大量的华为的工程师坐在Deepseek公司里头，出来我帮你调，他也调不过去。实际上这些华为工程师能调什么呢？他们只能调一件事，就是CUDA里头没有实现的部分，我来帮你去实现一下。华为的这个升腾910C，他们使用的训练相关的代码的话，是华为自己开源的一套训练框架。这套框架据说是可以实现CUDA 70%的功能，但是还有30%你是实现不了的。那这一部分由华为的工程师到现场来搞定。再怎么搞，该冒烟、该着火、机器直接停摆，这个事它是解决不了这问题的。</p>



<p>另外一个传闻，DEEPSEEK R2出不来的原因是什么呢？是数据标注的质量跟速度不过关。这个呢也没有得到官方的证实，也是坊间在流传。因为在中国嘛，很多的数据肯定还是需要去审核一下的，这个审核的过程是相对来说比较麻烦的。</p>



<p>而且Deepseek呢，其实一直也是一个比较低调的公司。提前预热，不停的出来吹牛，这件事呢是容易翻车的。山姆奥特曼每次出来讲GPT5，说：“我太震惊了，我从来没见过这么棒的。”等GPT5发布的时候，大家说：“这就能让你震惊了？您到底是眼皮子有多浅？”马斯克在发布GROK4之前，也在说：“这是我所见过的最聪明的大模型。”也有人认为老马吹的有点过头了。</p>



<p>其他的公司都必须不断的发模型，跟着一起卷，不断的来吹牛，这个事是有原因的。为什么？因为这些公司是需要融资的。马斯克发GROK4发完了以后，马上就给XAI去融资。山姆奥特曼GPT5发完了马上融资，这公司直接值到5,000亿美金了，他现在已经是没有上市公司里头最贵的一家了。第二家应该是SpaceX，再往后是3,000多亿的字节跳动。但是大家注意，字节跳动的收入现在好像已经超过Meta了，这个是非常吓人的一个事情。所以这些人他有融资的需求，你就必须得不断的出来炒这个热点。不炒的话，你说我现在想提高估值，融资这事费劲了。而且现在Anthropic也在融资，而且是要按照1,500亿美金的估值要去融资，我估计他们后边的日子不是那么好过，现在他们的CEO应该已经奔中东，找中东土豪去给钱去了。</p>



<p>谷歌呢虽然不需要融资，但它后边有股市、有股价、有市值这些东西，所以呢不能落后，所以谷歌也必须要不停的推陈出新。实在做不出来东西呢，确实哪块也做的不太行，怎么办呢？你还可以像扎克伯格那样，表演抢人大戏这种行为艺术。我发2亿美金的薪水，我把人抢回来。虽然你的Llama4像屎一样，Llama再往后怎么走谁也不知道，但是看到你表演行为艺术表演的这么热闹的话，Meta的股价涨的也还可以。所以大家必须不停地去表演。</p>



<p>但Deepseek自己，他没有这种融资的需求，所以呢也并不太需要出来表演，自己踏踏实实做自己的事就好了。至于说他到底做成什么样，咱们也只能在外边来看。</p>



<p>大家有没有想过这样的一个问题：到底是谁家的芯片能够训练大模型呢？训练跟推理是完全两个不同的概念。训练你是必须要长时间高强度的工作，而且在中间是不允许停的。而且在训练的过程中，我们需要在更多的芯片之间进行数据的调度，更更大规模的这种协同。国内的这些算力服务器都搞不定这件事情，他没有办法说让这么多的芯片相互之间进行协调的情况下，这么长时间稳定的工作下去。推理的话相对来说要简单一些，可能只要几个芯片读出很少的数据来，他就可以把这事干完。比如说我们去提了一个问题，他给我们过了几秒钟做了一个反馈，反馈完了以后呢，他就可以再给我们分配其他芯片了。在这个过程中，芯片出现任何的问题，过热了或者说你对资源进行切换了，它是不影响的。所以呢推理咱们国内的这套系统是可以的，但是训练搞不定。</p>



<p>那么到底谁家的芯片可以做训练？英伟达这个必然是可以的。除了英伟达之外，还有哪些芯片可以进行大规模的这种模型训练呢？你说我这个芯片训练了一个10B的、20B的模型，这不算。或者说你说我这个虽然能够训练，但是我训练的模型从来没有人用过，这个也不算。现在唯一证实了可以进行大规模训练的，而且是训练这种大模型的，还被大家普遍接受和使用的，猜猜是谁？</p>



<p>很多人可能会猜是不是AMD？AMD MI300，或者现在应该是MI三百零几了吧，这样的一个芯片。不是他们。现在唯一的一个能干这个活的人，是谷歌的TPU。Gemini大模型是在上面训练出来的，Anthropic的Claude模型有部分声称是在TPU上训练的。除了英伟达之外就是他们了，再没有第二家了。</p>



<p>那老牌厂商像AMD、英特尔，号称我这个芯片是可以进行大规模的模型训练的，也给出了一些用他们的芯片训练大模型的实例，甚至呢还训练了一些不太流行的小模型拿出来去开源，但是他们训练出来的模型也没人用。AMD跟英特尔呢，一般大概也就是10B或者20B以内的这些小模型。另外一个呢就是富士通，富士通用一款ARM的CPU呢，也训练过一点可能也是10B以内的这种小模型吧，也没有听说过谁去用他们。</p>



<p>其他的一些ASIC芯片呢，也是号称自己能做。所谓ASIC芯片呢叫专用集成电路，像升腾、谷歌TPU呢都属于ASIC。亚马逊、阿里、百度呢，也都号称可以进行训练，但是呢没有实例。亚马逊号称是我拿自己的ASIC芯片呢，做了一些训练，也有几个模型，但是呢谁都没用过。OpenAI的模型，有些据说是在亚马逊上进行训练，但这个事呢，也没有得到最终的证实。百度呢是号称自己设计的ASIC芯片可以去进行训练，但是反正百度自己家的模型烂的跟屎一样，我们就不去评论了。</p>



<p>至于华为的升腾芯片呢，科大讯飞号称是在上面训练的。但是呢也有朋友跟我讲说，科大讯飞其实是在英伟达上训练出来的，只是呢对外宣称是在升腾上训练的，这个我们就不去做考证了。只是科大讯飞的模型，其实也没有那么普遍，除了一些教育领域里头有些人会去用，其他的让你自由选择的时候，很少有人会去选择用科大讯飞的模型。华为呢自己号称是在升腾模型上训练了盘古大模型，但是呢前面被内部的人指责蒸馏、指责抄袭，之后就不再有任何声音了。所以现在华为已经不再提他的盘古大模型这事了，估计是准备装一段时间的死狗以后，再次遥遥领先。所以华为的升腾模型，其实没有证实过训练成功过任何的大模型。Deepseek R2呢，应该是真的尝试过，但是败下阵来。</p>



<p>华为跟Deepseek官方呢，都没有出来证实，就既没有出来说我用了，也没有出来说我没用。所以呢升腾芯片，没有成功的训练出过任何一款大家普遍使用的模型。</p>



<p>那么国内的算力芯片是怎么样去竞争的呢？英伟达大概占54%，就一半多。升腾呢占28%，其实已经占的非常非常多了。像寒武纪等等其他的一些芯片公司的，所有的加在一起，可能还加上AMD的吧，一共占18%。这个大就是国内整个的算力芯片的一个分布情况。</p>



<p>国产的芯片呢，目前来看都是可以去做推理了，但是呢没有哪一个真的跑出来模型过。所以国内的算力芯片，基本上是没有办法做训练的。</p>



<p>现在呢还有一群的“赢学家”在鼓吹英伟达芯片里头有追踪器。但是这些“赢学家”呢，现在有点吹不下去了。他说呀：“这个英伟达的芯片里头，是不是在集装箱里装追踪器了？”还有人说：“是不是在包装箱里装追踪器了？”或者是说：“在服务器里边装追踪器了？”因为他们也知道，在这个芯片里头是装不上的。还有人说：“H20这里头肯定没有追踪器，但是呢H100、B200这个里头有追踪器。”这个呢都想多了。因为中国人是经历过挖矿的，我们是完完全全可以把芯片整个扒下来，重新拿新的版卡去焊。而且大量的，其实做英伟达版卡的公司就在国内，所以我们完全可以拿他的版卡，自己回来去加工这个事情。装追踪器这个事是没用的。</p>



<p>中国官方对于H20的态度呢，也很暧昧。有人就到外交部的新闻发布会上就问：“说你们是不是要准备禁售H20？”外交部的新闻发言人回答是：“没听说过这件事情。”中国的这些官员回答，一般都不会说是或者不是，通常回答是：“请你看以前的表态”，或者“请你看有关部门的表态”，或者说“我不知道”、“没有听说过”。所以他这一次的回答叫“没听说过”。</p>



<p>中国政府呢，也没有明令禁止说我们去销售H20或者谁去买这东西。但是呢潜规则就是这样去运营的。多家媒体，比如说Bloomberg、Marketwatch就做了些报道，说中国的监管部门针对H20芯片表达了强烈的不信任和谨慎态度，尤其是强调相关芯片可能存在后门的风险和数据隐患，建议企业回避在政府或敏感用途使用H20。所以呢这些H20可能最后去做训练就完了，推理的这块就通通交给国内的升腾384超节点就OK了。</p>



<p>还有报道说字节跳动、腾讯、百度等企业被召集，这些人是准备去买H20的。国内的有关部门把你们都召集一块说：“你们为什么要买这东西？买多少？”给他们开这样的会。监管侧重国家安全与网络安全审查，并未提出商业禁令，就是我们还是让你买，但是你买之前呢，我们得把你拎来稍微恶心恶心。所以现在都约谈过了。</p>



<p>总结一下吧。Deepseek R2呢确实是难产了，肯定的没有出来。国内的算力芯片目前呢，也无法进行大规模的模型训练，可以进行推理这个事没问题了，但是训练搞不定。20万块H100量级以上的大模型训练，国内很难突破。如果20万块串在一块可以训练大模型的话，我们可能至少需要40万块或者50万块，比如像升腾910C这样的芯片凑在一起，而且我们所需要消耗的电和时间，可能都是要呈几何级数上升的。因为我们卡之间的联通的速度是相对来说比较慢的。所以比如说H100，它也不是说一直就不坏，它可能工作个20个小时或者是40个小时都会坏一次，会出现问题，对于老外来说就可以去接受了。对于我们来说呢，我们可能要求要连续坚持500个小时不出问题，才能够回收回来数据了，因为算的慢嘛，真的达不到。大概就是这样的一个情况。</p>



<p>国内算力卡的这些供应商呢，很有可能会阻碍中国大模型的进展和训练。为什么呢？自己做不好，你又不让别人买H20，可能中国的大模型再往下一步走，就会变得非常非常困难了。</p>



<p>未来国内算力卡是不是可以训练大模型呢？反正一两年之内呢稍微有一些困难吧。国内的大模型到底能不能用呢？基本还是能跑的。高深的数学、科研研究、物理学或者这些基础学科，我们不去研究了。就是让你去做一些信息整理，现在国内大模型基本上都是可以用的。</p>



<p>还是稍微耐心地等待一下Deepseek的慢慢发展吧，它反正中间只要不需要融资，它也不需要出来吆喝，万一有惊喜呢？这个也不好说。这就是我们今天要讲的故事。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！</title>
		<link>https://lukefan.com/2024/06/04/%e9%bb%84%e4%bb%81%e5%8b%8bai%e6%97%b6%e4%bb%a3%e8%8b%b1%e4%bc%9f%e8%be%begpu%e9%9d%a9%e5%91%bd%ef%bc%9a%e4%b8%80%e5%9c%ba%e5%b8%82%e5%80%bc2-7%e4%b8%87%e4%ba%bf%e7%be%8e%e9%87%91%e7%9a%84%e7%8b%82/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 04 Jun 2024 01:02:00 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[英伟达，黄仁勋的故事]]></category>
		<category><![CDATA[1.8万亿参数]]></category>
		<category><![CDATA[2.7万亿美金]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AIPC]]></category>
		<category><![CDATA[AI工厂]]></category>
		<category><![CDATA[AI工厂时代]]></category>
		<category><![CDATA[AR]]></category>
		<category><![CDATA[Blackware]]></category>
		<category><![CDATA[COMPUTEX]]></category>
		<category><![CDATA[GPT-4]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU技术大会]]></category>
		<category><![CDATA[GPU核心]]></category>
		<category><![CDATA[GTC]]></category>
		<category><![CDATA[H1]]></category>
		<category><![CDATA[H100]]></category>
		<category><![CDATA[MoE]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[NVlink]]></category>
		<category><![CDATA[RTX]]></category>
		<category><![CDATA[scoring low]]></category>
		<category><![CDATA[SERVER]]></category>
		<category><![CDATA[stable diffusion]]></category>
		<category><![CDATA[TOKEN]]></category>
		<category><![CDATA[TX]]></category>
		<category><![CDATA[VR]]></category>
		<category><![CDATA[云计算]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[内存]]></category>
		<category><![CDATA[军备竞赛]]></category>
		<category><![CDATA[分析]]></category>
		<category><![CDATA[参数]]></category>
		<category><![CDATA[参数量]]></category>
		<category><![CDATA[台积电]]></category>
		<category><![CDATA[合作伙伴]]></category>
		<category><![CDATA[商业]]></category>
		<category><![CDATA[垄断地位]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[工程师]]></category>
		<category><![CDATA[市值]]></category>
		<category><![CDATA[应用开发]]></category>
		<category><![CDATA[开发者]]></category>
		<category><![CDATA[微软]]></category>
		<category><![CDATA[戴尔]]></category>
		<category><![CDATA[技术大会]]></category>
		<category><![CDATA[投资人]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[推理能耗]]></category>
		<category><![CDATA[支架]]></category>
		<category><![CDATA[数据中心]]></category>
		<category><![CDATA[显卡]]></category>
		<category><![CDATA[机器人]]></category>
		<category><![CDATA[机箱]]></category>
		<category><![CDATA[模型]]></category>
		<category><![CDATA[模型训练]]></category>
		<category><![CDATA[游戏助手]]></category>
		<category><![CDATA[版本]]></category>
		<category><![CDATA[生态链]]></category>
		<category><![CDATA[用户]]></category>
		<category><![CDATA[硬件]]></category>
		<category><![CDATA[科技]]></category>
		<category><![CDATA[移动互联网]]></category>
		<category><![CDATA[竞争]]></category>
		<category><![CDATA[竞争对手]]></category>
		<category><![CDATA[竞争者]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[算力芯片]]></category>
		<category><![CDATA[缩放定律]]></category>
		<category><![CDATA[股价]]></category>
		<category><![CDATA[能耗]]></category>
		<category><![CDATA[芯片]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[苹果]]></category>
		<category><![CDATA[行业秘密]]></category>
		<category><![CDATA[计算机]]></category>
		<category><![CDATA[计算机大会]]></category>
		<category><![CDATA[训练能耗]]></category>
		<category><![CDATA[设计]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[贷宽]]></category>
		<category><![CDATA[超威]]></category>
		<category><![CDATA[车载芯片]]></category>
		<category><![CDATA[软件]]></category>
		<category><![CDATA[铁皮]]></category>
		<category><![CDATA[黄仁勋]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1286</guid>

					<description><![CDATA[大家好，欢迎收听老范讲故事YouTube频道。今天，咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUT ... <a title="黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！" class="read-more" href="https://lukefan.com/2024/06/04/%e9%bb%84%e4%bb%81%e5%8b%8bai%e6%97%b6%e4%bb%a3%e8%8b%b1%e4%bc%9f%e8%be%begpu%e9%9d%a9%e5%91%bd%ef%bc%9a%e4%b8%80%e5%9c%ba%e5%b8%82%e5%80%bc2-7%e4%b8%87%e4%ba%bf%e7%be%8e%e9%87%91%e7%9a%84%e7%8b%82/" aria-label="阅读 黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<p><br></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！" width="900" height="506" src="https://www.youtube.com/embed/AOpATS-sitc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事YouTube频道。今天，咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋，作为现在真正AI时代的当红炸子机，可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱，但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下，英伟达现在市值2.7万亿美金。大家知道，再往前就是微软的3.2万亿，第二名是苹果，2.9万亿，还差那么一点点。可能稍微一哆嗦，英伟达就有可能成为世界第二市值的公司了。那么，黄仁勋上面都讲了什么呢？作为网红，肯定还要先暴露一下行业秘密，别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数，就是一个170多亿级别的模型。但是到GPT-4的时候，OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了，对OpenAI来说，这个数据不是很准确。我来辟谣了，但是具体有多少，从来没有讲过。黄仁勋在前面的GTC，就是GPU技术大会上，每年一次的英伟达自己的开发者大会上，上面也讲了……</p>



<p>说起来1.8T，这个1.8T指的是什么呢？其实就是1.8万亿参数，而且它是一个Moe模型。当时OpenAI并没有对此多说什么，但这一次，在《Computer Text》上，他们又反复强调了这个事情，明确指出GPT-4的训练参数达到了1.8T。这让人们意识到，想要达到GPT-4的水平，还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型，比如几百亿参数的模型，比如梅塔的拉马3可能会有一个400亿参数的模型，国内也出现了很多一两百亿参数的模型。但事实是，即使提到的1.8T参数，如果考虑到是Moe模型，分成八份来看，那么单个模型可能也就相当于200多亿参数的水平。</p>



<span id="more-1286"></span>



<p>这次先通过揭示现状，然后发布新GPU，但对于具体数据——多少核心、多大算力、内存多大、带宽多少，人们似乎已经感到麻木。现在大家更关心的是，如何将这些GPU有效地集成起来，如何把它们拼装成服务器，以实现更强大的计算能力。这背后的提升，不是5%或10%的增长，而是几倍的飞跃。这成了技术关注的新焦点。</p>



<p>如何装到机房里头，统一为别人去服务，这个是现在大家更关心的事情。所以现在呢，他们发布的叫Blackware GPU，而且，它取出来那个板子上是两块GPU和一个CPU，应该是他们自己做的CPU。这是一整块，然后可以装到一个大的服务器里面去。再把这些服务器堆叠在一起，使用它的NV link，让这些GPU可以像一块完整的GPU那样工作。这样说，你就可以去训练更大的模型了。而且，今年是这个Blackville，明年就是Blackville Ocho，再往后是Robin。就是说，往后一代都给你规划好了。再往后一步，是叫Robin Ocho，所有的GPU一直规划到2027年，一定让2027年之前的GPU都给你规划好了。</p>



<p>现在呢，很多大佬还在惦记着买H100。他现在就专门告诉你说，你看我这个艾克威尔跟这个H100比，它强在什么什么地方，好在哪哪哪。但是很多人还想买H100，这是为什么？可能Blackware它的这种工作方式，或者说它可能需要跟更多的设备先行捆绑，而H100的话，相对来说可能兼容性会更高、更好一些。就是你用任何的这种通道服务器，都能相对容易地兼容和使用。</p>



<p>你把它插上去都是可以用的。likerware我倒是真没看到它出这种——就是像原来金砖啊，像我们以前讲的A100、H100这样的，我们管它叫金砖嘛，就是它的卡还是金黄色的，方方的一块，可以插上去的。好像没有看到这样的东西啊。现在呢，基本上都是以两个black Verre在一起，然后头上带一个CPU，是完整的这个配置。</p>



<p>当然了，这些大佬，包括马斯克、扎克伯格，可能也不是说我就一定要去买H100。对于他们来说，H100就算是一种计量单位，就是说啊，他们会算上自己到底买了多少H100，或者说现在手里的算力相当于多少H100。你像扎克伯格之前讲，说他买了35万块，加上他手里现成的有60万了，再加上后面再接着买，现在扎克伯格手里的大概有接近100万块H100，相当的算力。这就跟我们造炸弹的时候说，这个炸弹相当于多少吨TNT啊，最后变成了一种衡量单位了。</p>



<p>老黄（指NVIDIA的CEO 黄仁勋）就告诉大家说啊，你们来买新的吧。而且这种升级是呈几何级数升级的，所以不要去买旧的，去买新的，这样的话才能够保持它的垄断地位。如果说哎，我现在这个GPU再涨上去，涨了10%，涨了20%，那大家就不买它的了，就去买AMD，买英特尔，买其他的这些算力芯片去了。</p>



<p>甚至像高通这样的公司，都能做出一定的算力芯片来。这样一来，人们可能就不会一定买它的产品了。但是现在的情况是，我们谈论的是算力要涨十倍、百倍、千倍，而且每年都要这样增长。为什么呢？因为这成了一场军备竞赛。每个人都害怕落后，就像人们常说的“输在起跑线上”。我们从小让孩子上补习班，是为了什么？就是出于这种害怕，这种焦虑感。老黄就是在给大家制造焦虑：你现在买了旧的，等明年出了新的，你就落后了。你必须去买新的，然后当更新的版本出来时，你又要再买。毕竟，GPU不像软件，软件可以逐年升级，而且升级成本相对较低。但GPU，你需要整块购买，一年后淘汰，再换新的，这成本实在太高了。一片就是4万美金，Blackwell的价格我虽然没查，但肯定不便宜。所以，要让大家每年跟着升级，必须讲出一些更有诱惑力的故事来。目前，从算力成本和能耗几个方面看，确实在全面升级。一方面，算力成千倍增长，成本自然是变贵了。这没什么可争议的。但就单位算力的成本来说，它是下降了。比如，原来的H100卖4万美金，但使用Blackwell之后……</p>



<p>你可能继续达到H100同样的算力，这只需要原来1/10，甚至1%的成本，是这样大幅下降的。能耗方面也是如此，比如说，要达到原来H100的算力，所需消耗的能耗可能也只是原来的1%。如此发展，GPT-4的1.8T训练能耗引人注目，因为之前很多人讨论，GPT-4训练一次的能耗相当于多少个家庭一年的电力消耗，让人担忧AI发展的能源瓶颈。但现在的进展是，重新训练一遍的能耗降低了99.7%，仅为原来的1/350。而进行推理时，即训练完成后用于问答等任务，能耗更是降低到原来的1/45,000。这样的发展速度令人惊叹，从GPT-4推出至今不过一两年，能耗的减少就达到了如此程度。</p>



<p>军备竞赛在AI领域体现为不断制造焦虑，促使各方持续投入。这就像冷战时期的军备竞赛，你有武器，我必须跟进。如今在技术领域，特别是英伟达所处的，情况类似，但效果是整体提升，正如“一人得道，鸡犬升天”。之所以提到这一点，是因为他们还强调了除了芯片本身，还有Vlink技术，能够将服务器像拼图一样连接，整个机房的服务器作为一个单一GPU工作，展示了技术整合带来的巨大效能提升。</p>



<p>因为，这些服务器在一起，你的GPU的算率越大，可以并行处理的东西就越多，与内存和CPU之间的通道越宽，整个进行大模型训练的效果就会越好。所以他说，他可以干这件事情，但在这个过程中，这些服务器，或者其他一些相关的配件，都跟着他“鸡犬升天”了。比如说，像戴尔、超微电子这些给他造服务器的公司，全都因此受益，一路上涨。因为你不能只有GPU，不能只有他们的加速卡，还得把所有配件凑在一起，这些东西才能正常工作。而这些配件，都是值钱的。</p>



<p>在这个过程中，服务器肯定变得更贵了。比如说，原来用的是H100的服务器，现在变成了更高级的查克威尔的服务器，那自然是服务器变贵了。但你想，服务器变贵的过程中，到底是什么东西变贵了呢？其实，只有与H100相关的专利费变贵了。大家要注意，因为大家自己并不造芯片，也不造服务器，他也不造算力中心。他只是设计好GPU，交给台积电去生产、封装、测试，然后下交给板卡厂商制作成板卡，再由服务器厂商组装成服务器，最后等待比如马斯克这样的人购买安装。所以，整个服务器链条上的价格上涨，实际上主要是由于关键技术组件的成本上升，特别是H100相关的专利费用。</p>



<p>除了GPU价格飙升之外，其它相关成本也难免水涨船高。你不能期望其它东西都保持低廉，这显然不合逻辑。我们整体的成本基数提高了，但单位成本可能有所下降。不过，要注意的是，老黄的市场策略极为精准。GPU的知识产权价值多少，或者说它的设计成本是多少，他们心中有数。如果没有竞争对手，价格自然可以定得更高。但即便如此，人们依然能看到成本在以惊人的速度下降，甚至是以十倍、百倍的幅度。然而，GPU的设计价值却在不断提升。</p>



<p>除了NVIDIA本身，那些制造显卡、服务器以及各种配件的厂商，它们的产品也会随之增值。比如，如果你用一个价值4万美金的H100来搭建服务器，仅这一部分就是一笔昂贵的投入。而且，随着Nvlink标准的采用，替代了以往的Pcie标准，意味着新的配件、新的线缆等都将应运而生，价格自然比过去高出许多。</p>



<p>我记得早些时候，为惠普的小型机配备一个简单的支架，就是一个铁质架子，都能卖出数千元的高价。原因在于它专为小型机设计，很多工程师甚至会私下找工厂定制支架，替换官方配件以赚取差价。这背后反映的是，即便是一些看似不起眼的配件，在特定情境下也能变得极其值钱。</p>



<p>大家其实也都知道，那个铁皮的支架，你说能值多少钱？你凭什么一定要买惠普的？他只要是惠普的工程师给你装上，下次他接着给你修不就完事了吗？你跟着这个比较贵的东西一块去卖，他就会卖的很贵。但是这几天呢，戴尔和这个超威的股价，其实已经快有点绷不住了。大家心里也明白，虽然你们跟老黄跟的很紧，但是这个里头真的，你就是个卖支架的，卖个铁皮，卖个机箱的，你跟着里头的GPU一起水涨船高，这件事稍微的有点侮辱大家的智商。</p>



<p>现在呢，是AI工厂时代，现在老黄也讲说我们现在就是AI factory。在这样的一个时代，我们应该如何与时俱进呢？我记得在移动互联网刚开始的时候，我们写很多应用，当时我们在思考说，哎呀，我怎么能够省一点流量，因为那个时候流量很贵。我们都想着如何去节省流量，如何在使用的时候联网，不使用的时候怎么把它断开，想着怎么去省一点电，怎么去做一些其他的节省资源的事情，可以少占一些硬盘的空间，可以交互的时候少交互一些流量。当时的我一位老板就跟我讲，说你们想这个事情是错的，说为什么呢？就是因为很简单，随着时代的发展，这些东西都会变得不值钱的。比如说现在，流量咱们现在……</p>



<p>其实，基本上是没有流量焦虑的。我记得最早开始使用手机，那时候刚进入3G时代，我们都会做什么呢？每天定时打开流量，收完邮件后立即关掉。为什么会这样？因为酷，而且节省。现在，还有人这样做吗？没有了。现在，我们走到哪儿，站在哪儿，就开始刷抖音、看视频。已经很少有人会说，我必须节省流量，等到有WiFi的地方再做这些。绝大部分人没有这个意识了。</p>



<p>电的问题现在也不那么大了。虽然手机应用还需要省电模式，但现在的手机几乎都是一天一充。你的应用再费电，能比微信还费电吗？能比原神还费电吗？所以，这些问题也变得无关紧要。因此，很多以前为了省电而做的操作，实际上已经没有意义了。</p>



<p>再往后说，我们是否会考虑在硬盘或手机上占用更少的空间？以前在猎豹工作时，我们还在研究如何让软件占用空间尽可能小。但现在看看《原神》有多大，看看那些手机游戏的大小，再看看微信在你手机里占了多少空间，就会觉得，我们当初那么精良的考虑，好像都没什么大作用。是的，所以在AI Factory这个时代，也就是AI工厂时代，我们仍在思考如何能省一点TOKEN，情况依然如此。</p>



<p>我怎么能够让它反应得稍微快一点？我怎么可以调用不同的大模型？这个模型贵一点，那个模型便宜点。我尽量让便宜的模型干尽量多的事情，让贵的模型干少一点的事情，做一些其他的，比如优化（reg）或者做一些这种节省沟通交互的事情。可能真的再过一年，这些就会变得很可笑，就像我前面讲的，我们在做手机应用的时候，让它怎么去省流量，从网上下载的东西少一点，占的硬盘空间少一点。我们现在回想，那时候想的这些事情就显得很可笑。但是在AI时代，刚才我们讲的怎么能够省一点TOKEN，怎么能够让便宜的模型多干点，贵的模型少干点，怎么能够让多个模型相互搭配起来使用，可能也会变得很可笑。而且，这个时间会来的非常快。</p>



<p>黄仁勋呢，除了讲数据中心业务，就像我们刚才提到的Blackvail，一切都是数据中心业务，这也是现在英伟达核心的收入来源，没有之一。现在，他主要就靠这个业务玩。那么其他的呢？也还在讲，英伟达这家公司特别有意思，它不会说某一个业务特别好，就把所有的身家都压上去。它永远是在所有它认为有趣的地方投注，即使这一个方向很长时间没有结果，它依然会在里面坚持。那么，它肯定还有些其他的业务在做什么呢？</p>



<p>比如说，RTX加载的AIPC，因为前面微软发布的AIPC是基于高通的。现在，英伟达说了，你们使用英伟达的GPU，也可以达到同样的水平。英伟达专门为了AIPC设计了一款很小很轻薄的GPU，而且很省电。但这一块上，它稍微有一点尴尬。为什么呢？你如果真的要轻薄省电，你一定使用ARM的，对吧？就是使用高通的就好了。那你说，我现在稍微费点电也可以，这个英特尔自己也出了，英特尔说，你们就直接用英特尔完整的GPU加上算力核心就完事了，你不用再去单独配独立的GPU，依然可以达到AIPC的能力。包括AMD也是这么干的，AMD自己也产X86的CPU，AMD说：“来哇，你直接买我的APU加我的算力核心，就一次搞定。”</p>



<p>那么，英伟达的RTX这个方案为什么尴尬呢？就是它必须要再搭配一块Intel或者是AMD的X86的CPU，它才可以正常工作起来。这对于强调轻薄便携的AIPC来说，就稍微有些尴尬了。但是，英伟达也强调了，加上他们的技术后，算力是苹果的多少多少倍，主要是与苹果的M系列芯片在比较。在这方面，我们还是要相信老黄的，他的算力确实是靠功率支撑起来的，如果他真想达到某个目标，他有这个实力。</p>



<p>说我在电脑上做Stable Diffusion的，这样出图，速度很快。那一定是配着呼啸的风扇声，以及呼呼转的电表，一起来工作的。除了AIPC之外，还在讲游戏助手。但是这个呢，我觉得大家看着开心一下就可以了。他说我做个助手帮大家打游戏，这个呢，就属于工程师思维——一拍脑袋觉得，“我需要一个这个”。其实，游戏跟这个没有那么大关系。就算是AI应用在游戏里面，应该也不是通过游戏助手的方式去应用的。</p>



<p>另外，还展示了机器人。他说所有跟机器人相关的东西，我们都上，也做了全套的机器人套件。还有，其实VR、AR以及车载芯片，其实都在英伟达的整个路线图里边。再往前走，很多人就会关心，英伟达到底还能坚持多久呢？他真的还差2,000亿美金就追上苹果了，对吧？苹果2.9万亿，他2.7万亿，真的差的不多了。他到底能不能超过苹果，甚至能不能超过微软，成为全世界最值钱的公司？这个其实大家心里都在打鼓。</p>



<p>英伟达呢，跟其他不管是微软也好，苹果也好，有一个特别本质的区别，就是它是一个“轻公司”。这个“轻公司”赶上时代红利是可以的，但是到底能不能长久地坚持下去，这个就很难了。黄仁勋展示现在的成就，未来的路线图，让人充满期待的同时，也不免有几分疑虑。</p>



<p>但是，并没有说我要砸重金进去，变成一个重型公司。大家注意，苹果是个很重的公司，它生产电脑——虽然电脑也是台湾人给他造的——它的手机是富士康，包括比亚迪都在给他造手机。它是这样的一个公司，虽然供应链在外面，但是这些货品、这些设计，包括全球的仓储物流，很多东西都是属于苹果自己的。所以，苹果是个很重的公司。微软其实也是一个很重的公司，微软自己在造Surface，那个东西虽然卖的并没有那么好，但是它也是电脑平板，甚至还有很多其他的硬件，比如说键盘鼠标。微软键盘鼠标其实做得非常好。而且微软其实还有一块很重的资产，那就是云计算中心，它有很多的数据中心。微软现在是全世界可能GPU最多的公司了，因为后边有OpenAI这样的一个“亲儿子”，那你肯定是要靠这么多的GPU去养的。微软现在的GPU，如果大概核算成H100的话，应该有180万块，这都是重资产。</p>



<p>谷歌呢，也是一个很重资产的公司。谷歌紧跟在英伟达之后，他现在是市值第四的公司。谷歌我记得在云计算兴起之前，曾经有一段时间，他拥有全世界大概6%的服务器，这是一个多么恐怖的数字。而现在，虽然应该没有那么多，但谷歌的数据中心依然规模惊人。</p>



<p>也是一块非常非常沉重的业务。而且，另外一点是什么呢？就是我们来看，整个的生态是否稳固，或者说，整个的价值体系是否可以稳定地升级上去。还有一个点可以看是什么？就是你上下游的生态链是否足够稳定。围着你吃饭的人到底有多少？以前我们在学生物的时候讲过一点：在一个自然环境里头，食物链越长，或者说参与到食物链里的动物、植物越多，它整个的生态系统就越稳定。为什么呢？因为其中有一些波动，其他的这些生态位上的人，或者这些动物，就可以慢慢地把它平衡回来，而不是说啊，我的食物链很短，就两三节，参与的动物也不是很多，植物也不是很多，可能中间稍微有一点闪失，这个食物链就崩溃了。</p>



<p>咱们来看看苹果，上下游其实有非常多的人围着他吃饭。我们不说这些果链企业，就光在苹果应用市场里头，做应用的这些人，也有几十万人，对很多人来说，这是他们的收入来源。再看谷歌，像我们现在在这看YouTube，我在这拿着YouTube的广告费，那我们也算是谷歌生态链里边的一环。那是非常多的人靠着谷歌生活。啊，微软那不必说这些靠广告吃饭的，因为微软的广告并没有那么多，但是微软上下游，是有大量的系统集成公司，靠着微软吃饭的。</p>



<p>还有微软云上的大量客户，但是英伟达有没有这么多人靠着它吃饭呢？英伟达虽然一直努力地在打造他的生态链，整个生态环境，但是并没有那么多。所有能战胜英伟达的，像刚才我们说的戴尔、超威等，这些已经都涨疯了。剩下的呢，其实没有那么容易贴上去。虽然有很多人说，“我们拿英伟达的CODA，我们去写这些Transformer的大模型。”但是这些人呢，实际上在整个的生态链里面是非常非常小的一群。现在能够真正把这个东西跑通的人非常少，虽然这个领域的人才工资非常高，但是人数真的不多，它没有真正撬动大众。所以，我从这两个方面来论述，英伟达到目前为止，依然是一个很轻的公司，资产很轻，它的整个生态链其实也是相对短而且相对脆弱的。</p>



<p>那么英伟达现在能够赌的是什么呢？就是这个缩放定律，叫“scoring low”。只要这个东西依然有效，黄仁勋呢，就还可以继续狂飙那么一段时间。“scoring low”是什么东西？就是我堆更多的数据，上更大的模型，上更大的算力去计算，然后得到的模型效果就更好。这个东西只要依然在，还可以大力出奇迹。那么大家就说，那我们就接着老老实实地买他们家显卡。</p>



<p>而且，这种倍速一定是十倍、百倍、千倍这样往上涨，为什么呢？因为如果你说，我英伟达下一代的GPU就比现在快20%，那大家就不更新了。或者说，我干脆去买AMD吧，AMD的比你这还便宜点，算力也没有那么差，只是这个过程稍微麻烦一点——我需要重新去适配AMD的算力卡。大家要注意，因为做这行的人很少，这些人很聪明，对他们来说，适配一个新的算力卡，难度并没有那么高。</p>



<p>刚才我为什么专门讲了苹果的生态链、谷歌的生态链、微软的生态链？因为它们里面有很多低端开发者，对他们这些低端开发者来说，技术迁移的门槛是很高的。你让他重新换一下，比如说，“你原来做安卓的，现在去给我做iOS开发去”，他真不会。甚至说，他学会了以后还能涨些薪水。但是对于英伟达来说，如果他没有办法快速地让算力十倍、百倍、千倍地涨上去，那么大家就会渐渐背离他，对他的忠诚度是相对比较低的。</p>



<p>有可能造成英伟达崩塌的原因有三个，咱们最后总结一下：</p>



<p>第一个就是摩尔定律失效了，缩放定律已经没效果了。大家发现，上更多的数据，配更大的模型，训练完了以后效果提升了。一旦到这样的情况，就不会有人再疯狂地去买他的新显卡了。</p>



<ol class="wp-block-list"></ol>



<p>第二个中心转移了。突然间，又一个特别赚钱的应用方向爆发起来。大家注意，现在为什么大家都在选择这个？因为“缩放法则”——谁都用不好。大家只能去比谁的模型做得更好，然后去跑这个，跑那个。但是一旦发现，这个模型在做一些特定应用时，效果好得一塌糊涂，而且极其赚钱，那么这个时候，就不会有那么多人继续投入资金去做新模型的研发了。他们可能觉得，现在的模型就够了。这相当于什么呢？就是说，虽然“缩放法则”仍然有效，并没有崩塌，但是没有人愿意再往上堆成本了。因为，尽管“缩放法则”有效，但增加更多的算例、更多的数据，那都是钱。一旦出现特别赚钱的领域，即使“缩放法则”依然有效，增长也会停止。</p>



<p>第三个因素是巨头合作，突破并扩大了垄断。现在，大家离不开英伟达的原因，就在于它推进的这套扩大——可以称之为通用计算方法，具体的名称我不再详查，它是不开源的，而且英伟达拥有专利。因此，大家都在这个基础上进行了应用开发和大模型的训练。之后，想要更换这个技术，就会有一个成本。这个成本，我们要反复讲，不高也不低，为什么会这样呢？</p>



<p>肯定换过去以后会有些兼容性的问题。但是呢，因为你后边真正使用你的H100也好，Blackware也好，都是些什么人？特斯拉、苹果、谷歌、微软、亚马逊——他们可以花最贵的钱，雇最好的工程师，说来咱们今天去改一遍就完事了。这个都是有可能的。但是，这个临界点在什么地方？临界点就是，如果涨不上去了，那咱就改；或者说突然有人说，“我愿意砸一笔更大的钱进来，咱就改。”为什么？詹奥特曼说，“咱们砸一笔大钱啊，1,000亿美金，或者说1,000万块H100算力的这个GPU，我们统一搞一次，做星际之门去。”这个对于英伟达来说，都是比较大的威胁。就是这三个威胁。</p>



<p>英伟达呢，也算是我们现在的一个传奇故事。我相信在整个的AICC大时代里头，我们还可以不断地看到它的故事继续。好啊，今天我们要讲的故事就到这里。感谢大家收听，请帮忙点赞点小铃铛，参加Disco讨论群，也欢迎有兴趣有能力的朋友加入我们的付费频道，再见！</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
