<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI情感判断 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/ai%e6%83%85%e6%84%9f%e5%88%a4%e6%96%ad/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Fri, 28 Nov 2025 00:56:50 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>AI情感判断 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>90 分钟专访揭秘：Ilya 为何抛弃 OpenAI 路线，创办 SSI 公司半年估值从 50 亿飙到 320 亿？｜Safe Superintelligence、Superintelligence</title>
		<link>https://lukefan.com/2025/11/28/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Fri, 28 Nov 2025 00:56:48 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AI创业公司]]></category>
		<category><![CDATA[AI发展方向]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI小镇做题家]]></category>
		<category><![CDATA[AI情感判断]]></category>
		<category><![CDATA[AI未来]]></category>
		<category><![CDATA[AI模型]]></category>
		<category><![CDATA[AI泡沫]]></category>
		<category><![CDATA[AI科研]]></category>
		<category><![CDATA[Daniel Gross]]></category>
		<category><![CDATA[Ilya Sutskever]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI创始人]]></category>
		<category><![CDATA[Safe Superintelligence]]></category>
		<category><![CDATA[Sam Altman]]></category>
		<category><![CDATA[Scaling law]]></category>
		<category><![CDATA[Superintelligence]]></category>
		<category><![CDATA[Transformer瓶颈]]></category>
		<category><![CDATA[价值函数]]></category>
		<category><![CDATA[大语言模型]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3036</guid>

					<description><![CDATA[卧槽！OpenAI前CTO隐退半年突然诈尸，爆AI最大黑料：全是小镇做题家！😱

笑死！这哥说大模型考试卷王💯——评测刷到满分，实操直接傻眼：认猫认成狗🐶，怼简单问题当场宕机，比我相亲还菜😂！最骚的是：科学家最大技能不是搞代码，是忽悠钱啊💸！他新创SSI公司，融资10亿秒变50亿估值，3个月狂飙320亿🔥，谷歌英伟达跪着送币，我柠檬到想啃键盘！

核心暴击：AI学反了！❌ 人类先学"别吃屎"再读书，AI先塞满知识库再补情商，难怪满嘴跑火车💩。破局关键：必须先教小模型明辨是非，别堆"大屁股"！现在全是考试机器，落地？不存在的！

普通人稳如老狗🐶——搬好小板凳嗑瓜子🍉就完事了！点赞过5000，下期扒透融资内幕！👇你被AI坑过吗？速来评论区开闸吐槽！#AI真相 #小镇做题家实录 #科技吃瓜

标题1：OpenAI 创始人出走真相：大模型已成高分低能“小镇做题家”，Scaling Law 走到尽头，情感判断才是未来｜Ilya Sutskever、Safe Superintelligence、AI、Superintelligence
标题2：90 分钟专访揭秘：Ilya 为何抛弃 OpenAI 路线，创办 SSI 公司半年估值从 50 亿飙到 320 亿？｜Safe Superintelligence、AI、Superintelligence、OpenAI、Scaling
标题3：别再被“刷分”的 AI 骗了！OpenAI 灵魂人物 Ilya 警告：Scaling Law 正在制造高分低能模型，AGI 真正解法是情感｜AI、Superintelligence、OpenAI、Scaling、AI Safety
标题4：AI 路线之争背后，谁是最大赢家？Ilya Sutskever 新理论或让谷歌 TPU 失效，英伟达才是最后赢家｜Ilya Sutskever、Safe Superintelligence、AI、Superintelligence、AGI
标题5：2025 AI 泡沫破灭倒计时？OpenAI 联合创始人 Ilya Sutskever 突然发声，揭示被忽视的变量：情感判断才是通往 AGI 的唯一路径｜Ilya Sutskever、OpenAI、Scaling、AI Safety、LLMs
简介：OpenAI 联合创始人 Ilya Sutskever 沉默数月后接受专访，直指当前 AI 发展已误入歧途，单纯堆算力的 Scaling Law 正在制造“高分低能”的 LLMs。他创办的新公司 Safe Superintelligence 将探索全新路径，认为 AI 应先学会情感判断再学习知识，这或许才是通往真正 Superintelligence 的关键，而非继续优化现有 AI Models。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="2025 AI 泡沫破灭倒计时？OpenAI 联合创始人 Ilya Sutskever 突然发声，揭示被忽视的变量：情感判断才是通往 AGI 的唯一路径｜Ilya Sutskever、Scaling" width="900" height="506" src="https://www.youtube.com/embed/HEk9joWgV5c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_1.JPEG" alt=""/></figure>



<h1 class="wp-block-heading">伊利尔·苏斯克维的专访：他到底说了些什么？</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>伊列尔·苏斯克维，很多人说：“这哥们是谁？”就是和马斯克、山姆·奥特曼一起创建OpenAI那哥们。在2023年11月份，对山姆·奥特曼进行逼宫以后，休假了很长时间，然后从OpenAI离职的。这一位算是OpenAI的创始人吧，他离职了以后呢，自己闷头去做研究，好长时间没有他的声音了，现在突然出来接受了一次专访。</p>



<h2 class="wp-block-heading">引言：AI界的科学家与当下的迷茫</h2>



<p>首先要注意，这哥们不是一个工程师，他是一个科学家。工程师跟科学家之间还是有很大差异的。使用确定的技术、加大投入、获得可预期的结果，这是工程师干的活；研究不确定的方向，这是科学家干的事情。所以，他是一位科学家。</p>



<p>现在很多人都在讨论AI是不是有泡沫。现在距离走通“最后一步”还有一点点小的差距。到底什么叫“最后一步”？就是AI真正的落地，真正的开始改变很多东西，开始挣钱。这一步现在还是有一点点差距的。但是呢，很多人也在否认AI泡沫的存在。AI虽然没有走通最后一步，但是AI真的带来很多失业。“钱我没挣着，但是我真的把人的工作干掉了。”现在是大家都比较迷茫的一个时间点。</p>



<p>原来那些应该默默无闻做研究的科学家，就携带了巨大的光环跑出来说话了。本来这些科学家说的话呢，应该是在很小的圈子里边流传，但是现在大家看看李飞飞、杨乐坤，包括今天咱们讲的伊利尔说的这些话，也成为了大众讨论的话题。</p>



<h2 class="wp-block-heading">核心观点一：科学研究与工程研发的转化</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_2.JPEG" alt=""/></figure>



<p>“科研现在需要相互转化了”，这就是这一次伊利尔访谈的一个核心观点。你说，科研科研不是一回事吗？不是，科学跟研究是两回事，它是分为“科学研究”和“工程研发”，它是两个不同的概念。</p>



<p>科学研究呢，是在发现方向。发现了方向以后，就可以堆钱、堆算力、堆数据，在各种行业里边进行测试，这个呢都叫工程研发。就像前面他们研究了半天，到底哪个算法是可以把这个大模型做出来的，最后发现Transformer算法是可以搞定的，发现方向了。到发现Transformer方法有效之前，都是在做科学研究。在Transformer出来以后，大家说：“咱们堆钱吧！”玩这个scaling law，就是直接往里头去堆算力、堆数据、堆这些东西了，这就开始玩工程研发了。这个都是确定的东西，我们只管往里堆钱就完了。</p>



<p>工程研发呢，有一个不可避免的问题，就是你万一站到了一个小山头上，朝任何一个方向走都是下坡。工程研发的时候，他也是会寻找更高的一个山头往上爬，但是你爬到一个最高的山头的时候，你就没法往前走了，因为你不知道应该往哪个方向走了。如果有一个离你很近的山头，你还可以去尝试的跳一跳；如果下一个山峰离你非常遥远的话，这个工程研发是没有办法去跨越鸿沟的。那么在这个时候就应该重新走回来，做科学研究了，重新去尝试那些现在不确定的方向。这就是这一次伊利尔访谈的一个核心观点。</p>



<p>所有的科学家最大的能力是不是科学？其实不是这样。所有的科学家，特别是成功的科学家，他们最大的能力是筹措经费和资金。特别是现在这个时间点，任何一项科学研究都是需要海量资金去堆砌的。现在已经不能说科学家坐在家里头，闭门造车多少年，最后研究出一个神奇的东西出来，现在已经过了那个时间点了。</p>



<span id="more-3036"></span>



<h2 class="wp-block-heading">核心观点二：大模型是典型的“小镇做题家”？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_3.JPEG" alt=""/></figure>



<p>现在的大语言模型跟人比起来，是不是走错路了？这就是这一次伊利尔提出的一个核心观点。说现在的大语言模型呢，就像是典型的“小镇做题家”。当然，“小镇做题家”这个词是我加上去的，但是他描述的整个过程，他描述的所有的细节，就跟咱们这的“小镇做题家”非常非常相近。这些大模型呢，在各种的复杂评测上无往而不利，一个比一个分高，但是遇到了具体问题，甚至一些比较简单的环境，都直接抓瞎，搞不定。</p>



<p>在研究大模型的过程中，设立目标体系是必须的。我研究了半天大模型，我最后怎么评测的？你肯定要设一个体系。但是设完体系以后呢，刷题也是必须的。现在既然有高考、有考研、有考公，那我们就要不停地来刷这个题，让考生能够适应考试的过程。</p>



<p>中国的模型和Llama 4就是典型的失败案例，就是刷了太多的题，刷的分很高，但是你一使起来，发现完全不是那么回事。即使是现在大家普遍认为相对比较成功的案例，比如说Claude 4.5 Opus、或者是Gemini 3 Pro、GPT-5.1这些模型，也是在巨大的数据算力基础上达到的成果，到了实际工作中，依然会出各种各样的问题。虽然他们出的问题，可能要比刚才咱们讲的纯“小镇做题家”的中国很多的二线模型，以及前面翻了车的Llama 4要好很多——中国一线模型其实也还是基本能用的——但是依然不能放心地把复杂任务交给他们。</p>



<h3 class="wp-block-heading">大模型与人类学习的巨大差异</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_4.JPEG" alt=""/></figure>



<p>而这个训练大模型呢，跟人类学习的过程是有巨大差异的。差在哪呢？</p>



<ul class="wp-block-list">
<li><strong>样本需求量：</strong>说人类只需要很少量的样本就可以学会东西。他举的例子是猫，你要想让大模型认识什么东西是猫，你恨不得你把全世界所有猫的图片、照片全都找出来让大模型去学习，他才能够认出来这是猫。而有时候还认错，把一个狗认成猫，或者把一个老虎认成猫，有时候还干这种事情。但是人的话，你让一个小孩只要看三五张照片，他就知道啥是猫了，然后他看到猫他就认识，换一个样的猫他也认识，黑的、白的、花的，他都认识。甚至你在这个时候画一个卡通的猫，他还是认识。人类只需要非常非常少的样本就可以学会什么是猫，而对于大模型来说，这个是完完全全无法做到的，至少用原来的这种Transformer的算法是没法搞定的。</li>



<li><strong>判断依据：</strong>第二个问题是什么呢？就是人类是依赖情感进行判断的。“这个事情我觉得是对的，那个事情我觉得是错的。”而大模型是完全没有情感的，它是靠统计结果来去进行判断的。人类靠情感判断的情况下，我们可以在信息非常不充分的时候进行决策。而大模型真的是把全世界人类所产生的所有信息都塞进去，训练完了以后，你让他再去做判定，还是经常出各种笑话。其实我们日常生活中，有些人也是这样的，就是学了很多东西，但是情商为零，这些人他们也经常会闹各种各样的笑话。现在大模型也在干这个活。</li>
</ul>



<p>所以伊利尔认为，沿着当前的scaling law继续低着头拉车已经走不通了，是时候应该抬起头来看看路了。这就是他现在提出的一个核心观点。</p>



<h2 class="wp-block-heading">伊利尔的新方向：告别Scaling Law，拥抱新架构</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_5.JPEG" alt=""/></figure>



<p>那他现在具体的方向到底是什么呢？他认为应该去搞一个全新的架构了，而不是在原来Transformer架构上接着往前走了。他要训练一开始就具备情感判断能力的这种“价值函数”。你这个大模型上来以后，从最开始没有那么多数据堆进去的时候，你就可以进行情感判断了。</p>



<p>咱们人也是这样，从小咱们是一边学怎么做人，一边学各种知识，而且学做人是在前面的。“这个东西我能吃，那个东西我不能吃”，“这个东西是干净，那个东西是脏的”，“哪个东西是香的，哪个东西是臭的”，我们一开始是在学这些东西，然后才是学各种的知识，开始刷题、开始考试。而大模型是反过来的，他是把所有的这些该考的试都考完了以后，然后再去学哪个东西能干，哪个东西不能干，怎么能够让大模型变得更安全，怎么去对它进行对齐，它是正好反过来的。现在伊利尔说，咱们应该像人一样，先去学一些最基础的东西，学让他怎么进行情感判断，然后再往里堆知识，这个顺序不能搞错。</p>



<p>说只有这样呢，我们才能够训练出来一开始就有是非观念、就能够明辨是非的这样的大模型，而不是像现在大模型似的，先预训练完了以后，再想办法去强化学习各种的安全规则。而且呢，伊利尔希望未来的大模型是一些小的、内容很少的一些模型。咱们现在叫“大模型”吧，但是他认为未来的“超级智能”应该是一些小模型，他需要的时候可以快速地学会新的知识，而不是像我们现在这样，先把所有知识都塞进去，然后再去进行一些微调，你可以适应某一个特定的环境。</p>



<p>其实我们现在这些“小镇做题家”就是这样的。你去参加高考，那肯定是能够语数英、物理化学、史地生政，这些东西你都要学完了，都可以考到一个很高的分数，你才可以考上清华北大。而你在清华北大上完了多少年学以后，出来了进入到具体的工作岗位，再去进行岗前培训，再有人去带着你去实习，然后才可以进入工作。现在的大模型也是这样的一套工作方式。但是呢，伊利尔说我们别这么干，我们一开始让这个模型很小，他可以完完全全自己去学习，需要什么他就学什么就可以了。而且小模型的后边再去进行专项学习的时候，要比这个一开始就塞一脑袋知识要容易很多。所以现在的大模型真的是典型的“小镇做题家”。</p>



<h2 class="wp-block-heading">离开OpenAI后，伊利尔在做什么？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_6.JPEG" alt=""/></figure>



<p>伊利尔离开OpenAI之后，都干了点什么呢？这个可能是大家关心的事情。他呢，去创建了一个叫SSI的公司，叫Safe Superintelligence，叫“安全超级智能”。这个公司呢，说我们只干一件事，就是这名字这事，叫“安全超级智能”，不做任何周边的小产品，我们在根上搞。</p>



<ul class="wp-block-list">
<li><strong>2024年9月：</strong>首轮融资了10亿美金，当时的估值是50亿美金。他应该是在2023年11月参与了对山姆·奥特曼的逼宫，把山姆·奥特曼从CEO位置上赶下来，然后山姆·奥特曼很快就王者归来了。在那以后，伊利尔基本上就不露面了，他出去休假去了，休假了很长时间，大概到2024年八九月份，正式官宣离开了OpenAI。九月份马上就有人冲上来给钱，拿了10亿美金。</li>



<li><strong>2025年3-4月：</strong>又融了20亿美金，当时的估值是300-320亿美金。因为呢，这种非上市公司嘛，融资了以后的很多报道和信息并不是那么准确。300-320有可能是投前估值300，投了20亿美金以后变成320了，大概是这样的一个情况。2025年三四月份的这一轮投资呢，Alphabet（也就是谷歌的母公司）以及Nvidia都参与投资了。</li>
</ul>



<p>注意，这个SSI是一家正儿八经的公司。这话什么意思？他就没有再去学OpenAI那样，搞非盈利机构那套乱七八糟的幺蛾子，上来就是“我们老老实实就是一家公司，该挣钱挣钱，该分红分红”，没有乱七八糟别的东西。</p>



<p>2025年7月份，这公司呢，大概是有50个人，非常精悍的一家公司。公司呢，应该是在硅谷Palo Alto和以色列这两个地方都有办公地点。后来呢，还传出了跟谷歌TPU进行适配的传闻。因为这件事情呢，英伟达也是股东，谷歌也是股东，跟英伟达适配这件事根本不算新闻，大家上来都是拿英伟达的训练了。但是谷歌是需要这个招牌的，说：“我们给了钱了，你得出来给我站这个台，你跟TPU也进行了适配。”</p>



<p>前面呢，传出扎克伯格呢，曾经准备花300亿美金直接收购SSI，但是呢，被伊利尔给拒绝了。他的合伙人CEO叫Daniel Gross，被扎克伯格给挖走了。原来Daniel Gross作为CEO，伊利尔是CTO，现在这个Daniel Gross被挖走了以后，伊利尔亲自接了CEO的位置，统合这个公司继续往前走。目前呢，还没有发布任何的成果。科学研究呢，本身就没有那么容易，所以大家也不要着急。</p>



<h2 class="wp-block-heading">未来展望：为什么是现在？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_7.JPEG" alt=""/></figure>



<p>那么为什么现在跑出来讲话呢？不知道是不是手里头的钱花的差不多了，又要出来融资了。</p>



<p>那你说他讲了这些东西，未来会怎么样呢？是不是scaling law就到头了呢？是不是真的我们需要重新去做研发，重新去找方向了呢？我觉得现在是一个非常情绪化的节点。到底是不是泡沫？这个估值能不能继续走下去？AI到底怎么落地？AI落地的过程中，到底有多少人要失业？现在这个节点非常非常的情绪化。</p>



<p>从美国也好，像中国也好，从全球也好，大家都觉得现在这个股市、现在整个的经济环境都很妖孽。什么意思呢？就是大家在失业，生意不好做，但是呢，股市飞涨。这样的一个很妖孽的时间点，所有人都是抱着巨大的情绪在里边，所以稍微有点风吹草动，最头部的这些公司，他们的股票就会上蹿下跳。</p>



<p>这个时候科学家们出来讲话，甭管是李飞飞、杨乐坤还是伊利尔，他们出来讲话的话，如果能够引起关注，如果他们能够能搞到钱，那么这件事情绝对利好的是谁？绝对利好的是英伟达。为什么呢？因为他们需要进行各种不同方向的尝试了，而在这个时候，必然是需要使用英伟达的算力卡的。那你说谷歌TPU不行吗？SSI不是已经跟TPU适配了吗？大家要注意，谷歌的TPU以及博通所做出来的其他的ASIC芯片，都是专门为Transformer算法设计的，这种“小镇做题家”专用文具，你让这些ASIC芯片换一种其他算法，就不灵了。只有英伟达自己家的算力卡，才有可能应对不同的玩法。</p>



<p>科学家们现在呢，肯定是要趁着热乎劲，AI现在正是风口浪尖上，抓紧忽悠钱，储备弹药准备过冬。如果你在这个时候再不忽悠，一旦泡沫真破了，这个时候科学家说“我想再整点钱，我要再去储备一些弹药，未来想接着往前走”，那就不好忽悠了。所以只有现在是最好忽悠钱的时候，或者说是最好忽悠钱的最后几分钟了。</p>



<h2 class="wp-block-heading">对普通人意味着什么？</h2>



<p>未来方向到底是什么，其实跟普通人关系并不大，咱们吃瓜就可以了。一个完善的科研制度，就是包括科学研究和工程研发的制度，是需要为这些科学研究提供足够的资源的，否则很容易陷入死胡同。中国其实现在就是更多地愿意把钱扔在工程研发上。那你说我们为什么没有陷入死胡同呢？人家美国人找到新方向，我们跟着走就完了，我们并不是站在最前面的那个人。这玩意就跟咱们开车似的，如果你是跟着别人开车，红灯咱们就都停下来，绿灯咱就跟着走，是比较容易的。但是你一旦站在这个车道的第一个了，这个时候就会比较难搞了。</p>



<p>看到李飞飞、伊利尔这些科学家可以有足够的资金去尝试新方向，也让我们对AI的未来更有信心。他们的研究成果最终还是会被谷歌、OpenAI、xAI这些巨头所使用。这些人最后自己成为CEO，自己成为商业领袖，支撑起一个巨大的跨国公司来，可能性基本上是零，但是他们做的研究还是非常有价值的。</p>



<h2 class="wp-block-heading">总结</h2>



<p>最后总结一下吧。近期呢，其实不光是伊利尔，各大AI公司的老大、AI领域的科学家，都在频繁地出来亮相发声。原因就是现在是非常时期，就会“妖孽横行”（咱们开个玩笑）。这个是非常时期，后面的局势呢很不明朗。也许跨过了门槛，AI技术大规模的应用和落地就会到来；也许泡沫破灭，大家需要过冬。我觉得即使泡沫破裂了，也不用担心，有可能我们只需要再忍几个月，AI就真的可以落地了。但是中间这几个月的日子会很难过。</p>



<p>在这样的一个时间点上，AI公司的人就要出来摇旗呐喊：“这个里头没有泡沫，我们走的好着呢！”科学家们也要出来喊，说：“我这还有一些新的方向，赶快给我钱呀！”正热乎的时候，你们给我钱，可以分散一些弹药，万一那条路不通，我这还有新的尝试呢。</p>



<p>至于我们这些普通人呢，搬小板凳吃好瓜就行了。千万不要“这个是对的，那个是错的”，这个离我们还是稍微有些遥远。虽然马斯克也好，黄仁勋也好，伊利尔，包括前面的李飞飞、杨乐坤这些人，他们讲的东西我们觉得我们好像听懂了，看个热闹足够了。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>好，这个故事就跟大家讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">Discord讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
