<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI行业未来 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/ai%E8%A1%8C%E4%B8%9A%E6%9C%AA%E6%9D%A5/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Tue, 11 Feb 2025 12:02:47 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>AI行业未来 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>李飞飞S1K模型引爆AI界：仅50美金成本完胜DeepSeek R1与ChatGPT o1！</title>
		<link>https://lukefan.com/2025/02/11/%e6%9d%8e%e9%a3%9e%e9%a3%9es1k%e6%a8%a1%e5%9e%8b%e5%bc%95%e7%88%86ai%e7%95%8c%ef%bc%9a%e4%bb%8550%e7%be%8e%e9%87%91%e6%88%90%e6%9c%ac%e5%ae%8c%e8%83%9cdeepseek-r1%e4%b8%8echatgpt-o1%ef%bc%81/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 11 Feb 2025 12:02:45 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[029筛选]]></category>
		<category><![CDATA[16张H100显卡]]></category>
		<category><![CDATA[32B模型]]></category>
		<category><![CDATA[50美金AI训练]]></category>
		<category><![CDATA[59]]></category>
		<category><![CDATA[AI公司裁员]]></category>
		<category><![CDATA[AI商业化]]></category>
		<category><![CDATA[AI小公司机会]]></category>
		<category><![CDATA[AI开发路径]]></category>
		<category><![CDATA[AI成本控制]]></category>
		<category><![CDATA[AI技术突破]]></category>
		<category><![CDATA[AI推理模型]]></category>
		<category><![CDATA[AI教母]]></category>
		<category><![CDATA[AI模型蒸馏]]></category>
		<category><![CDATA[AI测试标准]]></category>
		<category><![CDATA[AI用户粘度]]></category>
		<category><![CDATA[AI科学方法]]></category>
		<category><![CDATA[AI筛选问题]]></category>
		<category><![CDATA[AI行业未来]]></category>
		<category><![CDATA[AI行业竞争]]></category>
		<category><![CDATA[AI行业落地]]></category>
		<category><![CDATA[AI领域定制]]></category>
		<category><![CDATA[AI领域案例]]></category>
		<category><![CDATA[ChatGPT O1]]></category>
		<category><![CDATA[ChatGPT对比]]></category>
		<category><![CDATA[DeepSeek R1]]></category>
		<category><![CDATA[Gemini 2.0 Flash thinking]]></category>
		<category><![CDATA[Gemini数据]]></category>
		<category><![CDATA[S1K模型]]></category>
		<category><![CDATA[Together平台]]></category>
		<category><![CDATA[Together平台训练]]></category>
		<category><![CDATA[中国AI创新]]></category>
		<category><![CDATA[人工智能创新]]></category>
		<category><![CDATA[低成本AI]]></category>
		<category><![CDATA[可感知AI效果]]></category>
		<category><![CDATA[大模型与小模型]]></category>
		<category><![CDATA[大模型优化]]></category>
		<category><![CDATA[大模型应用]]></category>
		<category><![CDATA[小型模型训练]]></category>
		<category><![CDATA[小模型训练]]></category>
		<category><![CDATA[开源微调模型]]></category>
		<category><![CDATA[微调模型]]></category>
		<category><![CDATA[推理效率提升]]></category>
		<category><![CDATA[推理时间优化]]></category>
		<category><![CDATA[推理步数评估]]></category>
		<category><![CDATA[收敛性评估]]></category>
		<category><![CDATA[教育AI模型]]></category>
		<category><![CDATA[数据训练优化]]></category>
		<category><![CDATA[斯坦福大学]]></category>
		<category><![CDATA[普林斯顿大学]]></category>
		<category><![CDATA[李飞飞]]></category>
		<category><![CDATA[法律AI模型]]></category>
		<category><![CDATA[用户定制化AI]]></category>
		<category><![CDATA[电子工程博士]]></category>
		<category><![CDATA[硅基流动]]></category>
		<category><![CDATA[硅基流动平台]]></category>
		<category><![CDATA[置信度评估]]></category>
		<category><![CDATA[蒸馏模型方法]]></category>
		<category><![CDATA[蒸馏训练技术]]></category>
		<category><![CDATA[蒸馏问题技术]]></category>
		<category><![CDATA[财务AI模型]]></category>
		<category><![CDATA[通义千问]]></category>
		<category><![CDATA[问题筛选技术]]></category>
		<category><![CDATA[预算强制法]]></category>
		<category><![CDATA[高效AI解决方案]]></category>
		<category><![CDATA[高效AI训练]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1899</guid>

					<description><![CDATA[啊啊啊啊啊啊啊！大家听说了吗？李飞飞的S1K模型只用50美金，就超越了DeepSeek R1和GPT O1！🔥 这简直是AI界的奇迹！

首先，DeepSeek R1和GPT O1已经是推理模型的顶流了，但李飞飞的S1K模型竟然在多项测试中超过了它们！更牛的是，这个模型只用了16张H100显卡，26分钟就训练完了，成本才50美金！你敢信？🤯

这个S1K模型的厉害之处在于它的“科学筛选”和“预算强制”两大创新。通过筛选1,000个高质量、高难度、全面覆盖的问题，再加上动态预算管理，S1K模型在推理效率和准确性上都有了质的飞跃。这简直就是科学的胜利！🎉

而且，李飞飞的这个模型不仅成本低，效果还超好。它通过微调通义千问32B模型，使用了Gemini 2.0 Flash thinking产生的问题进行训练，最终超越了DeepSeek R1的32B版本。这波操作，真的是让人惊呼“中国行我也行”！🇨🇳

更让人兴奋的是，这种科学的方法未来可以应用到各个领域。无论是法律、财务还是其他专业领域，都可以通过筛选高质量问题，训练出特定领域的小模型。这意味着，未来的AI应用将更加精准和高效！🚀

总之，李飞飞的S1K模型不仅展示了AI的无限可能，也让我们看到了科学和技术的完美结合。家人们，AI的春天来了，快上车！🚗

#AI #李飞飞 #S1K模型 #科技 #创新 #50美金 #DeepSeek #GPT #AI工具 #搞钱必看

李飞飞S1K模型引爆AI界：仅50美金成本完胜DeepSeek R1与ChatGPT O1！

李飞飞的S1K模型以极低的50美金训练成本超越了DeepSeek R1和ChatGPT O1，这一突破彻底改变了AI模型训练的规则。核心创新包括仅使用1,000道精挑细选的高质量问题进行微调训练，以及采用全新的预算强制法以优化推理结果，引发AI领域的巨大关注。通过科学筛选与动态调整预算，S1K实现了高效的资源利用，同时打破了传统大模型高成本的限制，为小公司提供了蒸馏小模型的崭新解决方案。随着这一技术的普及，AI行业即将迎来全面变革，行业定制化与细分市场成为可能。无论是法律、财务还是教育，均可借助S1K方法快速推出精准的小模型，推动人工智能真正落地并服务于实际业务需求。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="李飞飞S1K模型引爆AI界：仅50美金成本完胜DeepSeek R1与ChatGPT O1！" width="900" height="506" src="https://www.youtube.com/embed/ZXtUq0wU8SM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好！欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲李飞飞的S1K模型。50美金成本超越DeepSeek R1和ChatGPT O1。</p>



<p>首先呢，DeepSeek到底是怎么震惊全球的？就是因为训练成本低。他的训练成本是OpenAI的3%，所以震惊了全球。</p>



<p>那么现在李飞飞的S1K模型，16张H100的显卡，跑了26分钟跑完了，拿到了一个32B的模型。多项测试超越了DeepSeek R1和GPTO1。</p>



<p>大家要注意，评测大模型呢，它有很多很多测试项。一般我们说基本上达到什么什么水平，就属于叫互有伯仲。有些你强点，有些他强点。原来大家都超不过GPT 4O，是因为只能接近它，距离它的全项指标都有差距。现在的话，大家就已经基本上可以达到GPT 4o的水平了。</p>



<span id="more-1899"></span>



<p>现在R1跟O1算是最强的推理模型。李飞飞做的这个S1k，也算是部分超过了R1和O1，绝对超越了DeepSeek R1的32B。</p>



<p>DeepSeek R1呢，讲的时候一般有两个不同的说法。第一个呢叫蛮血版。什么是蛮血版？671B的那个是蛮血版。然后另外一个呢，是通过通义千问也好，LLama也好，这些模型蒸馏了以后重新微调出来的版本。所有你看到什么70B，什么32B，都是这种微调出来的版本。</p>



<p>李飞飞这个50美金他这个版本呢，要比他自己的32B版本还要好。大家是不是先想想，先站个队。这到底是原创呢，还是抄袭呢？对于粉红来说这是绝对原创，对于支黑来说这可能是抄袭。</p>



<p>因为李飞飞是个中国人，他是个北京人。后来呢是跑去四川上的学，他是成都七中出来的。SOGO的王小川，B站的陈瑞，都是他的中学校友。但是呢，另外一头呢，他是个美国的大学教授。普林斯顿大学物理学学士学位，出于对东西方哲学和科学奥秘的探索，他前往西藏研究过藏药。后来是在加州理工学院得到的电子工程博士学位，现在是斯坦福大学的教授，人工智能教母。这算是个创新吗？还是个抄袭呢？</p>



<p>我估计很多人可以炒半天这个事。咱们先不炒这个，在我这个频道里头，吵这个事没意义。咱们去讲讲这50美金到底咋花的。</p>



<p>首先呢，是蒸馏一个小样本模型。有一个什么基座呢？通义千问32B。拿这个模型去做微调，就跟刚才我们讲的那个DeepSeek R1 32B的那个基座是一样的，都是通义千问2.5 32B。但是呢，拿进去做微调的这个样本是不一样的。DeepSeek R1 32B 是使用DeepSeek R1满血版产生的数据去微调的千分2.5。而现在李飞飞呢，他使用的是谷歌的推理模型Gemini 2.0 Flash thinking产生的问题去进行的微调。而且还有一个呢，就是它的问题特别少。就是DeepSeek自己微调的时候，有多少个问题？80万个问题。而李飞飞的问题有多少个呢？1,000个。拿了1,000个问题，就把这个模型给微调出来了。所以1K就是1,000，1,000个问题的意思。S1K这个模型只有1,000个问题。每一个问题呢，都是通过Gemini 2.0 Flash thinking进行解答，并且获得思考的过程与结果。因为他总共就1,000个问题嘛，你把他塞进去16块显卡，26分钟就跑完了。成本也就是50美金。那么是不是我来我也行？我也找1,000个问题上去，50美金我也整一个出来。</p>



<p>最近互联网上有个新梗，什么呢？就是“中国行我也行”。这个是嘲笑那些不自量力，想要学习中国大力出奇迹，结果翻车了的外国友人的一个新梗。这个并不是那么容易。你要想说，我用1,000个问题把这事训练好，那你想去挑这1,000道题，一定是非常非常难的。它这个S1K里头，实际上有两个大的创新点。一个是1,000道问题的筛选，另外一个呢特别神奇的东西，叫做预算强制，budget forcing。咱们先去讲这1,000个问题怎么筛出来。首先呢，这一帮的学者们从16个不同的来源，收集到了5万多个问题。</p>



<p>在59,029个问题中筛选出1,000个问题，其筛选标准主要包括以下几点：</p>



<p>1. **质量要高**：所谓质量高，指的是问题的解答过程和最终结果的格式完整、逻辑清晰。如果某些问题的解答过程格式不完整或混乱，则不予考虑。<br>2. **难度要大**：难度大的问题通常具有更长的推理过程、更详细的步骤、更多的推理步数和更长的推理时间。<br>3. **全面**：最终从50个不同领域中选取了1,000个问题，确保覆盖广泛，避免领域单一。</p>



<p>这三个原则——质量高、难度高、全面性，是筛选的基础。在此基础上，还需要探讨艺术、技术与科学之间的差异：</p>



<p>&#8211; **艺术**：偶然所得，无法重现。<br>&#8211; **技术**：在技艺基础上不断迭代与创新，但无法跨领域应用。<br>&#8211; **科学**：理解底层原理，可以跨领域应用。</p>



<p>中国在技术上表现强劲，但在科学方面略有不足。S1K实际上是一种科学，因为其筛选和训练过程并非简单的试错，而是通过科学的方法验证和优化。例如，仅筛选出最优质的1,000个问题进行训练，效果并不理想；同样，仅筛选出最难的或最全面的1,000个问题，效果也不佳。最终，将全部59,000个问题一起训练，效果虽有提升，但并不显著。这一过程体现了科学的严谨性和系统性。</p>



<p>就是真正在找到底层逻辑了。找到了逻辑以后，我就可以在这个逻辑上进行优化了。下次再去选问题的时候，我就选这1,000个题。大家注意，你选的题越多，他肯定是效果越好。但是呢，选的问题很多了以后，他你这个效果提升变得非常非常的不显著了。等于你花了很多的钱，后边都没有什么用了，这个就没有必要了。我们就到第1,000道题就可以了。所以大家就可以按照这个逻辑，在不同的领域里去应用这个筛选1,000道题的方法了。这个是一个真正进入科学范畴的东西。</p>



<p>建议以后这些大模型团队呢，可以去学而思、新东方找一些老师回来筛选问题。这个过程其实很像什么？我这个学生要去参加竞赛了，我这个学生要去参加高考了，他的时间非常非常有限。怎么能够筛选出一套特定的题目来，让他去训练？训练完了以后，可以在有限的时间内得到最好的提分。这个过程是不是跟学而思的这帮老师们干的活非常非常像？以后再去选问题的时候，比如说我们今天要去选一些物理相关的、数学相关的，或者什么这样的题的时候，那你就找这些老师来，他就有效果。</p>



<p>下一个创新是什么呢？下一个创新叫预算强制。这个特别有意思，其实还是学而思老师的范畴。预算强制说白了是什么？就这个题如果太难了，就别浪费功夫了，直接终止，写一答案在这就行了。你也不是说终止就不写答案，因为咱们知道考试的时候，你万一写对了呢？该蒙你还是得蒙一个答案出来的。如果这个问题你觉得太简单了，没有用到相应的时间，你就把答案直接做出来了，那你是不是等一等，再回去想一想，稍微检查一下。但是呢，到底哪道题需要尽快结束，哪道题需要多想想呢？这才是关键点。</p>



<p>咱都知道说，这个题如果太难了，咱就把它扔掉。我儿子小时候学奥数的时候，他就讲过哪道题你先看一眼，如果发现没什么这个概念，就直接pass就别做了。这就不是给你预备的。如果你把时间耗在这上头了，下边题就没法做了。而且那个时候考奥数的时候，还告诉你说第几题是多少分。</p>



<p>多少分的题，你应该在上面耗多长时间？如果你发现你在一个3分的题上耗了多长时间以上，你就赶快放弃掉。咱们现在就需要去做这个测算了，它叫预算强制法嘛。这个budget到底怎么定的呢？推理的步数和推理的时间，以此来定这个budget。首先要对任务进行复杂度评估，先看一下这个任务大概应该推多少步，花多少时间。</p>



<p>然后呢，在当前推理过程中得到一些中间结果。因为我们做题的时候也是，有时候做的中间结果出来。这个时候呢，我们就要对中间结果进行一个评估。第一个评估是什么？叫置信度评估。什么叫置信度？给大家讲一个故事吧。比如说今天这个天气预报说了，降水概率99%，这就属于置信度很高，那就肯定下雨，别费劲了，就下雨吧。咱们就不用再去花时间在后边推理去了。待会来一个专家说，这个专家认为今天降水概率是51%，这个呢就叫置信度不够高。您再花点功夫，再好好想想，能不能把这事说说的确定一点。这叫置信度。</p>



<p>然后下一个是什么呢？叫收敛性评估。什么叫收敛性？如果你得到了几个结果，这些结果相对来说都是稳定的，而且越来越稳定，这个就结束了，就是他吧。就算是我给出的结果不是一个完全准确的结果，但是呢，应该误差也不大了。这叫收敛性。但如果说，我现在得到了三五个结果，但是这结果呢值上蹿下跳的，这都差异非常非常远。那你在这种情况下，你就回去再想一想，多花一点时间再思考一下，再重新给一个结果。然后对结果进行质量评估。</p>



<p>还有是什么呢？就是任务特性和标准。因为你不同的任务，对结果的质量要求是不一样的。咱比如说吧，都是打比赛。篮球比赛比赛结果100:70，看着有点像，差不太多可以交差了，就这样吧。足球比赛结果100:60，您回去再算算吧，这事好像不太对。那么在这个基础上，再进行一些动态的调整，再进行一些预设的结果。什么叫预设结果？就是当我发现某些结果达到的时候，就直接停止。比如说我推理了半天，开始骂人了，那停下来吧。</p>



<p>或者推理了半天，发现涉黄涉黑了，那这事停下来吧。他也会有一些这样的停止命令在里头。他呢，就是这样来工作。第一个，我们先看看这个题值多少分。你可以给他一个多大的预算？你应该是推500步，还是推50步，把它推出来？先有一个预算，然后呢，我们在推的过程中就不停地来检查结果。哎，这结果已经不错了，那就到这吧。这跟考试的过程很像。</p>



<p>再往后呢，就是要去看你的预算了。比如说，我的结果出来了，发现我预算呢，应该做500步的，现在做了50步就把这个结果做出来了。那你再回去想想，可能有问题。但如果有时候超预算了，我原来评估说这个结果推出来应该是50步就推到头了，但是呢，我已经推到第80步了，还没推出来呢，那就赶快停止，别浪费时间了。写一个你觉得最靠谱的答案上去，就完事了，接着做下一题。这个就叫做预算强制。</p>



<p>那么这种论文发出来以后的话，我估计未来所有的推理模型应该都会去使用这套东西。实际上，整个过程是不是真的很像我们儿子小时候做奥数题的过程？你先看看这个题，3分的题你应该用几分钟，5分的题你应该用几分钟。你做的过程中再去看看说，中间这个答案已经很像了，直接把它写上就完事了。这个答案看着怎么看怎么不像。咱们经常说，数学这个东西，正确答案都很美。我没感到那种美，回去再想想。</p>



<p>还有什么呢？我儿子小时候学的也是说这个，做题做着发现，你写出来公式越来越复杂，最后算不出来了。那这个你再回去算算可能哪错了。或者说明明挺大的一个题这么难，我怎么三步两步就把它做完了。回去再想想，大概就是这样的一个过程。</p>



<p>当这些东西有了以后，S1K这个模型就有了今天这样神奇的结果。所以50美金就是1,000道题。训练是50美金。咱们把刚才讲的质量最好的1,000道题，最难的1,000道题，最全面的1,000道题，59,000道题都训练，再加上什么数据准备，这些东西都算一块。这个50美金是打不住的。</p>



<p>但是，你就训练1,000道题，就是50美金，再加上后边这个预算强制，它就可以达到很好的效果。现在，科学的车轮滚滚向前了。S1K模型出来以后，虽然没有用到Deepseak，但是方向是明确的，筛选问题就好了。老师们又有价值了，甭管你原来是教数学的，教物理的，赶快出来说，我们再筛选一下。我们要像培养奥数种子选手那样，去微调训练这种推理模型了。而且在不同的领域里头，都可以快速的蒸馏出小模型来，并且呢，实现领域内的突破。</p>



<p>你比如说，我今儿不是说做数学题，我们今天想推一个这种法律的，或者想推一个财务的，那其实都是可以找到一些专门做这个法考的老师，或者专门做财务资格证考试的老师，来给我们筛题。筛完题以后进去去这个训练去，这都是可以搞定的嘛。而且呢，让所有的推理模型可以一起解答，他没必要说我一定用DeepSeek R1去解答，还是说我要去用Gemini去解答，用O1，O3去解答。我们可以把所有的推理模型都抛下来，你们挨个给我答一遍，答完了以后，我们去挑里头质量好的1,000道题或者几千道题，然后再去训练也就可以了。</p>



<p>现在呢，有一堆的推理模型，DeepSeek R1、GPT的O1、O3 Mini、Gemini 2.0 Flash thinking。这一次李飞飞用的就是Gemini 2.0 Flash thinking。国内还有一堆的推理模型，比如说QWQ32B，就是一个标准的推理模型。Minimax和Kimi也都有各自的推理模型。哪怕你付费的这些模型，那就付呗，反正付完了钱以后，我就得到这一堆结果，拿着这个结果，我再去训练自己的这个小模型就完了。像这种32B的模型，我是完完全全可以在我自己电脑上跑的，我就不需要再交任何钱了，这个效果就好极了。所以以后这些付费推理模型，都应该会被拿来做蒸馏。千问2.5 32B的这个模型的底子很好，下面就都是老师的事情了。就是有人去试过，比如说千问的72B的。</p>



<p>Llama的70B、14B、7B、1B等模型现在普遍认为，能够产生比较好的中间结果。目前，大家主要在调整32B的模型，并且已经形成了一定的共识。接下来，可以进行更精细的质量管控。因为当我们调整完模型后，就可以进行测试，比如有多少道标准题库，跑完以后有多少对多少错，就可以去测试它是否正确。如果不对怎么办？不对就再花50美金，看看是不是好一点。又不对，再花50美金，然后再整1,000个题，再试试是不是好一点。最后找到一个最优解不就完事了吗？这样，你就得到了一个在某个特定领域里特别好用的32B小模型，然后进行微调和评测。</p>



<p>未来，比如像硅基流动、Together这些开源微调模型就要起飞了。因为我们现在可以在硅基流动上直接点出一个32B的模型来，实际上就是你把1,000道题做好了以后，把这个文档上传给他，然后一键确认，他可能连50美金都不需要，就给你搞定了。做完了以后，你就有自己的模型可以去使用了。Together是在美国的，他们调一个模型，我记得32B的模型也差不多是几十美金就可以调一次，在国内应该会更便宜。</p>



<p>很多小公司原来都在喊“适合你的小模型才是最好的”，但原来这个话其实是错的。为什么呢？因为微调出来的小模型原来的效果是没有那么好的，它未必比这些大模型加上RAG效果更好。现在，李飞飞给出了科学的方法，那么行业推理蒸馏小模型的春天就来了。因为你一旦推理了小模型以后，你就有什么东西叫用户粘度，用户会继续购买你的服务，继续让你去服务下去，而不是说上来说“哎，我今天用你的，明天用他的，反正模型都不是你们家的”，这个就没有任何用户粘度。原来有这样的问题，现在就好很多了。现在的话，就直接跑到人家行业里边去做问题筛选就可以了。问题筛选完了以后，再不断的测试、调优、评估。</p>



<p>这个路径其实已经很清晰了。以后小公司的春天就来了，就是可以卖模型、卖服务、卖数据。原来都说我要去做一个AI公司，那你手里头没有个一两亿美金，你都不好意思说你是做AI公司的。因为你需要去租显卡、去租GPU，去做预训练模型的训练。现在不用了，现在只要筛选好问题，哪怕你多试几次，最后花个几百美金试了十次，也不是什么大不了的事情嘛。而且这些模型，就是你的用户最需要的这些东西。</p>



<p>我记得我原来在学软件的时候，那还是九几年，整个软件行业有一个梦想，什么呢？叫系统咨询构架工程师。什么意思呢？原来我们都说，这个软件是需要分开的，先去做需求分析，然后去做这个加工设计，然后编码，编码完了以后测试，测试完了以后部署，然后再实施它，是这样的一个过程。说以后这个软件系统就很厉害了，他就不需要这些东西了，我们只管坐到用户面前，一边问用户你需要什么呀，等于在做咨询嘛，同时就在手里点点点，确认确认确认，打钩打叉，把这事情做完了以后说，哎，你这个问题都讲清楚了，你的软件也做好了，你可以拿去使去了。从九几年就有这样的梦想，现在的话这离这个梦想就又近了一步。</p>



<p>现在呢，让大模型改变每一个行业，终于要开始了。原来折腾了一两年都没有什么动静。以前都说大模型可以把每一个APP都重做一遍，大模型可以把每一个行业都改变一遍。为什么喊的这么大声音？大家都在使劲裁员，都在降本增效，原因很简单，就是以前很多的公司上了大模型以后，没有效果或者效果很难评估。那么现在的话，这种可感知的效果已经到面前来了，很多的公司就要开始上大模型，去改变他整个的业务链了。因为他现在改变了以后，就可以在特定的领域里头竞争胜利，他就可以把其他竞争对手干掉，快速的往前跑了。</p>



<p>你想咱们做了两年大模型，每一年看到的都是什么？谷歌裁员、微软裁员，国内也是什么百度裁员、阿里裁员，全是这个。但是，李飞飞这个模型的建立，以及靠这个蒸馏推理模型去进行微调小模型的这个方式。</p>



<p>发布了以后，我觉得未来的2025年，就会有大量的公司出来说：“我们去给你们微调小模型吧，我去给你解决实际问题吧。”真的是可以解决问题的，就会实实在在的发生改变了。这就是咱们今天讲的第一个故事，就是李飞飞的这个50美金的模型到底是怎么做出来的，里头到底干了点什么。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>阿斯麦崩盘引发市场动荡：AI大模型是否会经历郁金香时刻的泡沫危机？</title>
		<link>https://lukefan.com/2024/10/21/%e9%98%bf%e6%96%af%e9%ba%a6%e5%b4%a9%e7%9b%98%e5%bc%95%e5%8f%91%e5%b8%82%e5%9c%ba%e5%8a%a8%e8%8d%a1%ef%bc%9aai%e5%a4%a7%e6%a8%a1%e5%9e%8b%e6%98%af%e5%90%a6%e4%bc%9a%e7%bb%8f%e5%8e%86%e9%83%81%e9%87%91/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 21 Oct 2024 14:32:55 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[芯片的故事]]></category>
		<category><![CDATA[AIGC行业]]></category>
		<category><![CDATA[AI企业战略]]></category>
		<category><![CDATA[AI企业生存]]></category>
		<category><![CDATA[AI企业竞争]]></category>
		<category><![CDATA[AI发展趋势]]></category>
		<category><![CDATA[AI商业价值]]></category>
		<category><![CDATA[AI商业化]]></category>
		<category><![CDATA[AI大模型]]></category>
		<category><![CDATA[AI工具]]></category>
		<category><![CDATA[AI市场分析]]></category>
		<category><![CDATA[AI市场前景]]></category>
		<category><![CDATA[AI市场变化]]></category>
		<category><![CDATA[AI市场策略]]></category>
		<category><![CDATA[AI市场需求]]></category>
		<category><![CDATA[AI应用]]></category>
		<category><![CDATA[AI应用方向]]></category>
		<category><![CDATA[AI技术创新]]></category>
		<category><![CDATA[AI技术趋势]]></category>
		<category><![CDATA[AI投资]]></category>
		<category><![CDATA[AI未来发展]]></category>
		<category><![CDATA[AI桌面应用]]></category>
		<category><![CDATA[AI泡沫]]></category>
		<category><![CDATA[AI芯片]]></category>
		<category><![CDATA[AI行业分析]]></category>
		<category><![CDATA[AI行业动态]]></category>
		<category><![CDATA[AI行业崩盘]]></category>
		<category><![CDATA[AI行业挑战]]></category>
		<category><![CDATA[AI行业未来]]></category>
		<category><![CDATA[AI行业机遇]]></category>
		<category><![CDATA[AI行业洗牌]]></category>
		<category><![CDATA[AI行业洞察]]></category>
		<category><![CDATA[AI行业现状]]></category>
		<category><![CDATA[AI行业痛点]]></category>
		<category><![CDATA[AI行业观察]]></category>
		<category><![CDATA[AI行业转型]]></category>
		<category><![CDATA[AI裁员]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[GPU租赁]]></category>
		<category><![CDATA[H100租金]]></category>
		<category><![CDATA[Kimi]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[ToB]]></category>
		<category><![CDATA[ToC]]></category>
		<category><![CDATA[个人用户]]></category>
		<category><![CDATA[云计算]]></category>
		<category><![CDATA[光刻机]]></category>
		<category><![CDATA[创投]]></category>
		<category><![CDATA[台积电]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[商业模式创新]]></category>
		<category><![CDATA[商业用户]]></category>
		<category><![CDATA[大企业裁员]]></category>
		<category><![CDATA[大模型同质化]]></category>
		<category><![CDATA[大模型训练]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[存储市场]]></category>
		<category><![CDATA[市场洗牌]]></category>
		<category><![CDATA[市场预期]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[手机需求]]></category>
		<category><![CDATA[投资]]></category>
		<category><![CDATA[投资者心理]]></category>
		<category><![CDATA[泡沫破裂]]></category>
		<category><![CDATA[电脑需求]]></category>
		<category><![CDATA[盈利]]></category>
		<category><![CDATA[算力卡]]></category>
		<category><![CDATA[算力需求]]></category>
		<category><![CDATA[股市震荡]]></category>
		<category><![CDATA[自由职业]]></category>
		<category><![CDATA[自由职业者]]></category>
		<category><![CDATA[芯片市场]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[行业迷茫]]></category>
		<category><![CDATA[行业重组]]></category>
		<category><![CDATA[行业预测]]></category>
		<category><![CDATA[订单减少]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[财报泄露]]></category>
		<category><![CDATA[郁金香时刻]]></category>
		<category><![CDATA[阿斯麦]]></category>
		<category><![CDATA[阿里]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1646</guid>

					<description><![CDATA[天呐！大家快来围观！阿斯麦（ASML）居然崩盘了！！！这次事情可真是意料之外又情理之中！✨

先来开始我们的小故事：本是按部就班交出的财报，结果却提前泄露！想想见到报表数据后的投资者们，心情可想而知，恐慌情绪被瞬间放大，市场瞬间崩盘，不得不说，真是戏剧性的开局！

而且，财报里其实是好消息，收入和利润都在上升，但未来的订单只有预期的一半，这可是大事啊！就像一颗定时炸弹，随时都可能引爆股市！💣大家知道吗，阿斯麦的光刻机可不简单！一年也就四五百台，订单量直接决定了它的未来，结果现在居然只接到20多亿欧元的订单，惊得我一颗心哔啵哔啵直跳！！

更让人绝望的是，中国市场在以前是阿斯麦的钱袋子，这次居然由于各种政策因素，订单也数量下降，让整个公司可谓雪上加霜。💔

而AI行业呢，嘿嘿，这可也是个大问题。大家都盯着最热门的AI技术和应用，但这行业的投入可不是闹着玩的！你以为H100这样的芯片是天上的馅饼，结果却发现租金不断滑落，甚至连使用率都没法保证，真心是令人心焦焦啊！😱

所以，未来的市场，是否真的要经历崩盘的难关？这一点悬念可就留给大家去思考了。阿斯麦的崩溃只是开始，随着市场变化，咱们可得多加小心哦！别让泡沫破裂把我们的心一下子崩得粉碎！

来吧，让我们一起期待下一次的故事，再看更多的AI泡沫是否就此破灭，还是能迎来新生！🌟

阿斯麦崩盘引发市场动荡：AI大模型是否会经历郁金香时刻的泡沫危机？

在这篇文章中，我们探讨了阿斯麦因财报提前泄露而引发的市场震荡，同时预测AI大模型是否会经历“郁金香时刻”的泡沫破裂。这一事件揭示了当前AI产业的风险与市场对于未来发展的疑虑。尽管阿斯麦的营收创新高，但未来订单大不如预期，这反映出包括AI芯片在内的市场需求疲软。投资者需要重新审视AI行业的盈利模式与发展方向。我们讨论了AI的泡沫问题，以及大模型训练的风险。通过结合市场现状与未来趋势，提供对投资策略的深入分析。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="阿斯麦崩盘引发市场动荡：AI大模型是否会经历郁金香时刻的泡沫危机？" width="900" height="506" src="https://www.youtube.com/embed/kCKTFA8HpOc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，这里是老范讲故事的YouTube频道。我们现在开始讲第一个故事：阿斯麦崩盘。</p>



<p>是不是AI大模型要迎来郁金香时刻？什么是郁金香时刻？就是我们认为有一个大的崩盘即将到来的时候，我们管它叫郁金香时刻。因为当年荷兰人去卖郁金香的时候，就遇到了郁金香崩盘这样的事情。后面每一次大的这种泡沫破裂的时候，你可以认为它是一个郁金香时刻。</p>



<p>那么阿斯麦是怎么崩盘的呢？算是意料之外，情理之中。为什么叫意料之外呢？因为由于某个技术原因或者某一个技术故障，导致了应该是晚一天发布的财报提前一天泄露了。但是呢，这个泄露出来的财报并不是说虚假的或者说有错误的，就是正确的财报，只是他看到的时间稍微早了一点，或者是大家意料之外的这个时间看到了。早看到一天、晚看到一天，里面的数据都不会发生任何变化。</p>



<span id="more-1646"></span>



<p>所以呢，算是有一点点意料之外。所谓的意料之外的这个部分，唯一起到的作用就是放大了这个财报的各种情绪。原来财报里边写着我哪块做得不错，哪块做得不好。如果你是按正常的时间去放，大家就按正常的心理状态来看就好了。但是你突然提前泄露了它，那么这个里头一定是有一些奇奇怪怪的东西，大家心理被放大了。</p>



<p>现在呢，股市其实更主要是看未来的。股市不看今天的消息面，不看今天具体的什么，你今天多卖了几个硬盘，明天多卖了几个光刻机，人家是看你未来发展的。这其实也是大妈盘跟机构盘之间的差异。机构盘一般要看你未来三年的这种发展的状态，或者有什么样的新的方向，所以他允许你现在是赔钱的，你未来只要是能够发展的好，他就愿意来买。而大妈盘的话比较情绪化，他不会看那么远的事情，当前有什么变化我当前就要马上见钱，这是不一样的。</p>



<p>而股市里边，特别是欧美股市，机构盘要更重一些。现在阿斯麦提前透露出来的这个财报，它的收入跟利润其实还算是上升的，或者叫又创新高吧。但是呢，未来的订单只有预期值的一半，这个是非常非常吓人的。</p>



<p>因为像阿斯麦这样的光刻机，不是说像手机似的一年造几亿台，它一年大概也就是四五百台，不会太多了。所以，接到多少订单，就决定了未来的生产安排。现在，他只接到了20多亿欧元的订单，大家预期大概能有40多亿，所以差了一半的钱。这个数字让整个市场感觉到异常震惊。而且，仔细去看阿斯麦的财报，还会发现，在上一个季度的收入中，中国的收入占了一半，他有一半的东西都卖给中国了。中国购买的主要是28纳米以上的产品，真正的精密制程或高端制程的设备是不允许卖给我们的。</p>



<p>如果美国不管他，荷兰政府不管他，我估计他未来的订单还是能爆炸的。但是现在这个情况已经没有了。台积电、英特尔都在努力出货，就是要赶快把答应给我的机器交给我，我该付的钱付掉，你该给我的机器装上，再努力做。那么，问题出在哪里呢？韩国和存储市场崩了。韩国原本像三星要买一堆光刻机来用，但现在韩国的出货量没跟上去，未来的订单也不怎么样。</p>



<p>存储市场方面，我刚刚又去看了一下，淘宝上长江存储颗粒的SSD硬盘4T，现在价格已经回落到1,000多一点儿了，最便宜的时候大概能到900多，现在是在往下掉。阿斯麦这一部分的光刻机没有卖出去，未来的订单也就不存在了。</p>



<p>那么，芯片市场到底发生了什么变化呢？手机和电脑的需求其实都没起来，全球的需求相对来说比较疲软。这个锅谁来背呢？这个锅必须是AI来背，没有第二家能背的。因为现在大家能够让他换手机、换电脑的唯一理由就是AI。你现在要用AI手机，要用AI电脑，你要去买iPhone 16，要去买三星的AI手机，要去买谷歌的AI手机，国内的各种安卓手机都要去配AI。这两天，联想在拉着AMD、英特尔的老大、英伟达的老大在开会，就是要去卖AIPC，大家对这些AI手机的期待正在增加。</p>



<p>AI的PC都没有什么购买欲望，没有刺激起来嘛。原因只能是一个，就是AI对于普通用户来说没用。普通的用户没有觉得AI给我解决了什么问题，我需要付很多的钱重新更换设备，必须要来使用这些AI产品，没有。所以这个锅只能是AI来背。</p>



<p>阿斯曼他也在讲，说我们现在所有的逻辑芯片，就是CPU这些东西，存储芯片现在都不行，需求都很差。现在最后的一个亮点是AI了，也就是现在还有人在去买它的光刻机，去做SDM，就是算力卡上面用的这种内存，或者是去做H100、B200，或者是MI300这样的这种算力卡，这个东西还是有需求的。</p>



<p>但是大家要注意一点是什么呢？就是这种AI芯片，它呢很贵，一个H100五万美金，一个B200可能更贵，具体价格我没有去查，但是这种芯片总的量其实是很小的。它跟CPU，比如说高通的CPU、苹果的CPU比起来完全不可比。你想苹果每年要卖掉几亿只手机，PC你像英特尔、AMD每年大概几千万，也还是要出去的。但是你像H100这样的芯片，每年能够有个几十万撑死，应该到不了100万，也就是这种水平。</p>



<p>所以他那个量差得非常非常远。AI的这些东西呢，它可能现在还有很高的需求，但是大家就预测说，崩溃这种事情是带有滞后性的，也许下一个就轮到AI芯片崩了，因为前面是已经把CPU崩掉了，已经把存储芯片崩掉了。AI芯片是不是再过个比如说一年，或者再过个一两个季度就会崩掉，这个大家也在观望。所以他为什么股价就会崩掉。</p>



<p>现在呢，市场上的投资者心理已经站在悬崖边缘上了，因为AI整个的行业来说，投入实在太巨大了，而且看不到任何收益。这个东西呢不怎么挣钱，全世界所有的AI公司都不怎么挣钱。还有一个问题是什么呢？就是AI大家都觉得这就是未来的方向，但是现在AI给整个行业带来的变化是只见裁员，没有看到哪有新的企业快速成长，新的企业爆发，或者是有什么样的公司快速的招人。所以他这个AI会不会说，就是豁楞一下就跑掉了。</p>



<p>或者说，他就一个泡泡就破掉了。大家现在都很担心这件事。现在呢，还有另外一个让大家担心的，AI有可能泡沫破裂的原因是什么？就是H100的租金崩了。H100这种东西呢，是英伟达上一代的算力卡，也是现在的主力算力卡。现在虽然有B200出来了，但是真正用上的人还非常非常少。现在出来进行测试的B200，可能还有一些问题，在交货上还需要再等一等。</p>



<p>H100这样的算力卡，一张是5万美金。原来呢，说你们有人买不起吧，怎么办呢？你们可以租用这些算力卡，像云计算一样，去开一个这种带算力卡的主机，我们去用就完了。英伟达给的建议呢，是4.7美金一小时。去年的供不应求的时候，这个价格涨到了8美金一小时。但是现在呢，这个价格已经降到了两美金一小时，就是已经掉下来了。大家不需要了。</p>



<p>H100按照5年的寿命，5万美金价格，如果降到了3美金一小时以下的话，这个收益率可能就未必划算了。你可能最后挣的钱，还不如你把这钱存银行里收利息，收挣的钱多呢。如果这个价格降到2美元一小时以下，你可能连成本都收不回来。你把这个H100租用一年，收回来的租金不够这块卡钱呢，会出现这样的问题。</p>



<p>怎么又感觉像咱们原来挖矿的感觉？买了4090插在机器里挖矿，以太坊的价格一下跌，然后你觉得，哎呀，这个成本回收的时间又变长了。他现在变成这样的一个状态。而且呢，H100的这种租用的收益，你还不能按这样来算。为什么呢？因为你挖矿，只要把机器开着，它就一直在挖，不会说现在有人挖，待会没人挖，它有开机率的问题。它不会这样的，你只要开着机，它就一直挖。</p>



<p>但是像H100这种东西，你把它买回来以后，没有人租用的时候，它就有利用率啊。你比如说，现在虽然是能够卖到2美金一个小时，但是你可能开机率不足10%，不足20%。那你多少钱你都挣不回来。这个事是非常非常危险的。现在为什么H100的单价会掉得这么厉害呢？这个其实是真正反映到整个大模型。</p>



<p>这个产业整个行业的这种创业热情，现在舍得花钱去训练新模型的公司，其实已经很少了。在早期的时候，大家都愿意说：“我们花钱去训练了个新模型吧。”现在已经不愿意干了。独角兽零一万物的CEO李开复刚刚出来讲了，他说我们一定要继续坚持训练新模型。为什么他会出来讲这样的一个话？因为李开复他们已经好久没有新模型面世了，现在他终于又拿出了一个新模型，这个新模型叫e Lighting。这个模型呢，是一个Moe的模型，在很多的跑分里头已经超过了GPT4O以及GPT4O MINI。</p>



<p>现在又出来开了个发布会，他就讲说训练一次这样的模型需要3-4百万美金，还是很贵的。就是一般的公司你根本就玩不起。你不是独角兽，不是有10亿美金的估值，身上可能有个几亿美金的投资的话，你根本就没法弄这事。你想把这个钱挣回来也挣不回来。就是他们现在这些人，用几百万美金训练了一个模型，像他训练的模型应该还是相对比较小的模型，还不是像open AI那种大模型。那么这三四百万美金，你需要做多少服务能把它挣回来，非常非常难。</p>



<p>现在呢，基础大模型本身的同质化也很严重。open AI的GPT、claude、Gemini这三个模型，你说它到底有多大的差异，其实到最后差异都没有那么大。而且大模型呢，也不是针对普通用户的。他很多的大模型用户最终还是开发者。如果是开发者使用这些大模型的话，那最后这些大模型的竞争就会形成一个很悲观的结果，那就是赢者通吃。谁做的最好大家都去选他。</p>



<p>如果是你面向普通用户了，大家说：“哎呀，这个甭管好不好使，我用习惯了，我不换了。”它会有这个用户忠诚度的问题。但是你一旦是大模型，最后用户是开发者，是B端用户的话，随时有新的人家随时就换掉了。现在很多公司已经停止在训练自己的模型了，比如像Character AI这样的公司，就是说我们自己的模型以后不训了，以后我就用别的了，用Gemini就完事了。</p>



<p>普通人其实就直接聊天就可以了。更进一步的，其实普通人现在用不到现在的大模型。御三家也是跟游戏机似的，御三家OpenAI、Anthropic和谷歌，这三家是算最强的。国内的产品呢，通义千问、Moonshot、Deepseak、Yi，这些其实还是比较常见，我用的还比较多。其他像什么Mini Max呀，还有另外几个主要ToB的产品，基本上没用过。</p>



<p>咱也不止评论开源的这种，或者开放模型吧，Lama呀、Mistra呀，这些也都是可以使用的。当然这里还有一个比较奇葩的是XAI。为什么说它奇葩呢？融钱融的很多，名声也很响，顶上顶着马斯克，手里的算力也足够多。只是呢，现在大家所看到的结果，也仅仅是平台上面的一个聊天窗口，其他什么都没有，什么API啊、什么AI agent呀，所有这些东西它都没有。</p>



<p>号称是开源了Grok1.0的版本，也把这个原代码扔出来了，但是呢，放出来以后也没有任何人再去看他一眼，也没有任何后续的更新，什么都没干。他怕做了这么一样的一个东西出来，所以我觉得最后可能他会比较难看。</p>



<p>那么应用以及对于算力的需求呢，现在其实已经没有那么高了。除了刚才咱们讲的这几家之外，其他人其实用不了多少算力。对于大部分人来说，只要问答一下就行了。但是问答的时候呢，你用推理算力就行了，你并不需要去训练模型的那种算力。这个推理算力的话，有一个卡叫GROQ，用这种卡的效果其实比H100好，它非常便宜，非常高效的把你的推理结果给你送出来。</p>



<p>现在很多的公司，包括谷歌、亚马逊、微软，都在自己定制类似这样的卡。我们不再需要英伟达这些东西了，我们只管去回答人家聊天问题就行了。至于更进一步的开发AI agent呀，这些东西现在还在找方向。虽然很多人觉得这个东西很美，但大规模的使用现在其实并没有那么成熟。至于其他的AI应用方式，RAG这东西其实也没有大家想象的那么美好。</p>



<p>有些人说：“那我们上微调小模型吧。”现在确实这么干的人越来越多了。但是呢，大家要注意，很少有人去把一个比如说405币的模型拿出来微调一下，或者把七十几B的模型拿出来微调一下，很少啊。绝大部分人微调也就是去调这种，比如7B、9B这样的模型，甚至有人去调那个1B的、3B的模型。这种模型调起来的成本是非常低的。你到这种租用H100的平台上去调这种7B的模型，调一次可能花不了几百美金。</p>



<p>所以，对于他们这些做H100租赁的人来说，这个就真的是卖不出去了。因此，这些H100的租金就直接崩掉了。而且还有一个什么原因呢？很多购买H100的人其实买的是期货。什么叫期货？就是去年人家拿了投资，然后就花钱买了，买完了以后一直交不了货在这等。等到现在呢，开始逐步的交付，整个市场容量等于需求在下降，供给在上升，那它价格就只能崩掉。</p>



<p>而且，大模型训练这个事其实并不能一直跑。你只有像OpenAI、Anthropic、谷歌这样的公司，会不停地在去训练大模型。训练大模型这个过程，其实有点像造大炮。我造了一门大炮出来，但是呢，你得不断地开炮。你这一根炮管，你说我可以打500发炮弹，还是打300发炮弹，你把它打掉。你不能说我炮弹造大炮造出来了，炮弹没打两发，以后咱再造一门大炮吧，或者咱们过两天再造一门大炮，然后每天不停地造大炮，这个事不行。</p>



<p>现在大家其实对于算力的要求已经没有那么高了。当这一件事情真正传递到英伟达身上，传递到台积电身上的时候，可能整个AI大模型的这个泡沫就彻底捅破了。现在还没有传递到他们身上，现在还在喊说：“哎呀，我的H100这个订单很好啊，大家都在拼命地买啊。”马斯克说：“我要去买啊。”这两天好像是Oracle说：“我要去买一大堆100回来，大家赶快来使啊。”现在大家还在相信什么？就是谁买了一大堆的这个英伟达显卡，谁的股价就会涨。但是他们并没有想清楚说，你买了这些东西以后，部署到云计算机房，到底能不能用这个东西挣到钱？或者最后价格下滑了以后，是否这个生意依然是划算的？现在大家还没有想到这个事情，但应该很快就会想到。现在呢，整个行业也都比较迷茫。行业的老大OpenAI也没有给出什么新方向。现在，OpenAI还在不断地去训练新的大模型，但是不断训练新模型这件事情肯定是亏钱的。</p>



<p>其他人也不敢停下来。如果停止训练新模型，开始卷应用，可能最终在模型层次就会落后。那么，这有什么问题吗？这个问题很大。因为我们看看历史，云计算也好，广告也好，最后都是赢者通吃。最后剩下的，不管是亚马逊、阿里，还是广告平台上的谷歌、Facebook、苹果，这都是最后的赢者通吃。</p>



<p>他们都是靠说：“我从广告到云计算，再到最前端的应用，还有自己的用户，我要都有，然后才能把整个市场吃下来。”这些大厂是不敢去放弃，说“模型我不做了，我就只管把应用做好。”他们不太敢去干这个事了，因为一旦干这个事，最后就有可能被别人拿捏。人家说：“哎，平台是我的，广告也是我的，或者大模型是我的。我给你用的时候，就给你在里边放一些小的障碍，或者是让你觉得使用得不是那么舒服。我再出一些新的产品的时候跟你竞争，你就竞争不过我。”这个是大家所害怕的。</p>



<p>所以对于巨头来说，他们依然要去训练，但也没有什么方向。OpenAI今年亏了50亿美金，明年预计亏损140亿美金。而且过去五年，据说已经累计亏损了440亿美金。像OpenAI这样的公司，未来一段时间还会亏钱，可能预计到2029年才有可能盈利。现在是2024年，要再过个五年才有可能挣上钱，这个还是路很遥远。</p>



<p>像我们以前去投案子的时候说：“哎，你做个三年的财务规划吧。”人家说：“这玩意咋做？”我说：“你做呗，做完反正我也不看，我知道你是拍脑袋瞎猜的。”你像OpenAI想五年以后盈利，有人信吗？反正你愿意信，你就信就好了。</p>



<p>现在呢，整个行业其实都是非常非常纠结的。要不要继续卷？大模型这个东西看起来很美，但具体到应用的层次上，其实是脱节的。我们前面讲到说，大模型可以改变百分之多少人的工作，可以改变所有的应用，所有的应用环节都值得用大模型重新做一遍。但是到目前为止，没有谁说因为我用大模型重新做了应用以后，我就突飞猛进，我一把就封了，就涨起来了。并没有这样的公司出来，或者说这样的公司，比如说像 Character，大家觉得哎，你在用大模型做一些陪伴类的应用，这个好厉害。然后呢，这公司就不行了，核心团队被谷歌买走了，自己也不再训练自己的模型了。</p>



<p>有人说 Perplexity 很棒啊，人家做这个搜索很好用啊。但是大家看，看看谷歌，看看国内的豆包或者是 Kimi，大家都在往这一条路上挤。最后挤上去以后，他其实没有什么自己优势了，赢者通吃。一定是最后握有大模型的那个公司能够把它干掉。Perplexity 的模型不是他自己的，他的模型是 OpenAI 的。那么在这样的情况下，OpenAI 说来，我做 40 GPT 了，那就没你什么事儿；谷歌 Gemini 说来，我也把这个东西提升进去。那么在这样的情况下，Perplexity 是没法跟他们竞争的。</p>



<p>所以这个呢，现在大家也是非常非常苦恼的一个问题。大家都看到了裁员，但是没有看到新兴行业的崛起。而且这一次裁员呢，跟以前历届的裁员都有巨大的差异。以前裁员，比如说就跟军队裁军似的，他们会干嘛呢？把士兵干掉，把这个有经验的军士长留下来，把军官尽可能的留下来一些。为什么这么裁军呢？就是万一以后打仗，还可以以此为骨干，快速的再建立起新的军队来。但是这一次裁的都是中层管理干部。亚马逊现在已经透露出来，准备在未来一段时间里头裁员 1.4 万名中层管理干部。国内各大厂裁员的重灾区，不是底下干活的人，当然也不是说 35 岁毕业的人，而是什么呢？就是中间沟通环节的职位，不像什么 HRBP 啊，什么这些都重灾区。</p>



<p>把他们都干掉。我们不需要你去沟通了。以后的公司都是扁平化，底下的人用AI把能完成的工作尽量完成，上层的人用AI去尽可能地收集数据，进行判定或者做出决策就完事儿了。不需要中间有一大堆的人去制定规章制度、执行规章制度，然后去进行沟通。这部分的事情通通由AI来干。</p>



<p>现在变成了这样的一个状态，所以未来的大企业可能会更加的扁平化一些。而且现在很多的AI行业的这些公司也在思考问题：我到底是ToB还是ToC？我是给商业用户去做呢，还是给个人用户去做呢？ToB肯定是短期能够挣到钱的，因为商业用户只要是你能给他改变一点点的效率，他就愿意给钱。但是长期这样的公司大概率是会被淘汰的，混不下去的。</p>



<p>那么如果ToC的话，那是真卷不起，太贵了。现在流量都是握在大平台手里面。咱们就以做AI应用、AI桌面应用这一个赛道来看，国内Kimi肯定是做得相当不错的一个应用，而且声音也很响亮。他有多少月活？几百万。豆包6,000万月活。为什么？因为流量在字节跳动手里头，你Kimi想要流量，花钱买去，人家字节跳动说我自己有流量我自己上。当然，豆包也挺好使的，因为我现在每天主力的AI工具就是豆包，还是非常好用的一个东西。</p>



<p>在这个过程中，是没有中间状态的。我要么ToB，要么ToC。现在是不是有可能成为有一些新的中间态？我们来为他服务。现在呢，大家其实也在思考这个问题：什么是中间状态？就是ToB跟ToC的中间状态。我呀，我就是中间状态啊。我们这种人叫什么？叫自由职业者。我既不是B也不是C，我虽然是个个人，但我肯定不是一个大的商业。但是呢，我又不是说用这些AI工具去解决日常娱乐问题，我是用这个工具在上班在挣钱。</p>



<p>所以呢，可能未来的这些AI工具要思考一下，怎么为ToB与ToC中间的这部分人去服务。也许未来会有一些新的不同的方向出来。AI可能会替代80%的工作，这80%的人失业了以后，不会再在未来一段时间里再回到大企业里面去就业。他们可能就会像我一样，成为新的这种叫做自由职业者。这有可能才是未来的一个广大业态。明年呢，有可能是整个AI行业至暗时刻，更多的创业企业会崩盘，就像咱们前面讲的Character AI这样。而且国内的这些AI企业也会有大量崩盘的，这个没有任何办法，因为你花了太多的钱，做了太高的估值，你又挣不到钱，也没有办法解决实际的问题，也没有办法真正的去提高社会效益，这些企业一定会崩。</p>



<p>英伟达的B200交不了货，与台积电现在也在扯皮。这个事本身其实问题并没有那么大，台积电说英伟达，你这用了太多的新技术，给我们的时候又太着急，所以我们做出来的芯片是有问题的。英伟达就是说，台积电你们的技术有毛病，给我的芯片不好，那我们要去晚一些再去交付。这个其实不重要啊，真正重要的是什么？算力需求下降。如果大家发现没有那么多的算力需求了，你把这个卡造出来卖不掉了，这个才叫吓人，这个有可能就会在2025年发生。而且应用如果还是起不来，新的商业模式、新的交易、新的利润还是没有产生的话，那么这个崩盘就必然会到来。</p>



<p>但是呢，我觉得也不用太悲观，崩盘是一定会来的，但是呢，不破不立，必须要经历这次崩盘，最后呢才可以去说再继续往前走。当然最好在这个崩盘的过程中能够保住open AI，不要让这个老大倒下，这个老大倒下，可能整个的行业就爬不起来了。而如果能够保住它的话，那没准未来还是可以说经历一个大的起伏之后再慢慢的起稳回升。</p>



<p>在明年呢，更多的人应该会去做应用，更多的人会去思考新的商业模式。不要再去搞什么狗屁的UBI，就是全民基础收入，那东西搞不通的，不要脱离商品经济的底层逻辑。在这个逻辑上，大家去想有什么新的商业模式，有什么样新的业态。如果80%人失去工作了，都在外面做自由职业者，我们又需要什么样的东西为他们服务，这是明年真正需要想的东西。在这个过程中呢。</p>



<p>我们就要等待新的巨头产生。这个新的巨头有可能是OpenAI，它有可能会指明新的方向，或者说它能够为这80%的人提供新的平台，能够让他们在OpenAI的平台上去盈利、去生活。那么OpenAI就会成为新时代的谷歌。</p>



<p>Anthropic的话比较难，因为他们有可能最后会逃不脱收购，可能被亚马逊直接收掉就算了。谷歌的话，这一次应该不至于掉队，这应该就是上一个时代的微软，虽然没有赶上新的时代，但基本上也跟着了。这就是谷歌在这个时代要扮演的角色。</p>



<p>梅塔做的拉玛，有可能就是这个时代的安卓，所有的开源模型的标准制定者，这就是梅塔在这个时代的定位。在国内，现在看，三家跑得比较快的，一个是阿里，一个是字节跳动，还有一个是Kimi。至于其他的，还需要再努力一些才能被我看到，否则的话看不到他们。而这就是现在的一个状态。</p>



<p>整个AIGC的行业，有可能泡沫会经历一次爆破，但从我个人的观点来看，这一次爆破并不会把整个行业炸翻，但也会重新做一次洗牌。就在明年2025年，应该会重新洗一下，洗完了以后大家再慢慢地往前发展。在这个过程中，一定会有很多的痛苦，很多的动荡会发生。大家一定要安下心来，或者说要坚定信心，继续在AI的这条路上往前走。</p>



<p>而且在走的过程中，也要采取更加理智、更加稳妥的策略，比如小团队以盈利为核心。如果你真能融到钱，再去研究是不是去训练大模型。其实在今年的可能第一季度，三四月份的时候，我们去参加一些创投会的时候，所有的投资人和一些大厂的老大都在讲，现在不要再去训练大模型了，这个已经时代过了。现在训练大模型这件事情，就交给刚才提到的这几家就可以了：OpenAI、Anthropic、谷歌、梅塔、阿里、字节、Kimi。其他人大家努力去找到新的应用就好了。这就是现在由阿斯麦这一次的股价暴跌，我们去聊一下。</p>



<p>说AIGC的泡沫到底是不是该挤一下？好，这就是我们今天的第一条。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
