<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI安全 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/ai%e5%ae%89%e5%85%a8/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Fri, 23 Jan 2026 00:47:46 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>AI安全 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>“给中国供应芯片等于卖核弹”？Anthropic CEO达沃斯激进言论震惊全场，谷歌DeepMind掌门人为何温和反击？｜AGI Demis Hassabis Dario Amodei</title>
		<link>https://lukefan.com/2026/01/23/amodei-hassabis-ai-china-agi-debate/</link>
		
		<dc:creator><![CDATA[老范 讲故事]]></dc:creator>
		<pubDate>Fri, 23 Jan 2026 00:47:43 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AGI timelines]]></category>
		<category><![CDATA[AGI时间表]]></category>
		<category><![CDATA[AI chips]]></category>
		<category><![CDATA[AI Governance]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI治理]]></category>
		<category><![CDATA[AI芯片]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[ByteDance]]></category>
		<category><![CDATA[China]]></category>
		<category><![CDATA[chip export controls]]></category>
		<category><![CDATA[Dario Amodei]]></category>
		<category><![CDATA[Davos]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Demis Hassabis]]></category>
		<category><![CDATA[economic impacts]]></category>
		<category><![CDATA[Google Deepmind]]></category>
		<category><![CDATA[Great Filter]]></category>
		<category><![CDATA[H200]]></category>
		<category><![CDATA[human-level AI]]></category>
		<category><![CDATA[jobs]]></category>
		<category><![CDATA[Macroeconomic Abnormality]]></category>
		<category><![CDATA[North Korea]]></category>
		<category><![CDATA[nuclear weapons]]></category>
		<category><![CDATA[societal impact]]></category>
		<category><![CDATA[Tech Adolescence]]></category>
		<category><![CDATA[US-China Tech War]]></category>
		<category><![CDATA[World Economic Forum]]></category>
		<category><![CDATA[世界经济论坛]]></category>
		<category><![CDATA[中国]]></category>
		<category><![CDATA[中美科技战]]></category>
		<category><![CDATA[人类水平AI]]></category>
		<category><![CDATA[后稀缺时代]]></category>
		<category><![CDATA[哈萨比斯]]></category>
		<category><![CDATA[大过滤器理论]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[宏观经济异常]]></category>
		<category><![CDATA[就业]]></category>
		<category><![CDATA[技术青春期]]></category>
		<category><![CDATA[朝鲜]]></category>
		<category><![CDATA[核武器]]></category>
		<category><![CDATA[社会影响]]></category>
		<category><![CDATA[经济影响]]></category>
		<category><![CDATA[缩放定律]]></category>
		<category><![CDATA[芯片出口管制]]></category>
		<category><![CDATA[达沃斯]]></category>
		<category><![CDATA[通用人工智慧]]></category>
		<category><![CDATA[阿莫迪]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3320</guid>

					<description><![CDATA[🤯 美国AI大佬又爆惊人言论：给中国卖芯片=给朝鲜送核弹？！

最近达沃斯论坛上，Anthropic CEO阿姆戴伊语出惊人🔥 直接把卖芯片比作核扩散！这哥们儿堪称AI圈“反华急先锋”，封中国账号最积极，合作？门都没有！😤

但仔细想想，他公司没中国业务当然敢说大话，哪像谷歌、微软还得顾及中国市场🤫 更搞笑的是，他一边说中国AI只是“小镇做题家”，一边又怕得要死不让卖芯片，这不是自相矛盾吗？

相比之下，谷歌DeepMind的哈萨比斯就理性多了👏 作为半个华人，他承认中国AI实力强大，只是原创性还需突破。更关键的是，他强调制定AI安全标准必须拉上中国，否则全球治理就是空谈！

最劲爆的是两位大佬对AGI时间的预测⏰：
- 阿姆戴伊：今年或明年就要来了！
- 哈萨比斯：2030年有50%概率

但他们都认为AI将引发“白领大清洗”💼 初级职位可能消失50%！未来可能是高增长与高失业并存的“诡异时代”...

你怎么看？欢迎评论区聊聊👇
#AI #科技前沿 #地缘政治 #职场危机

标题1：“给中国供应芯片等于卖核弹”？Anthropic CEO达沃斯激进言论震惊全场，谷歌DeepMind掌门人为何温和反击？｜AGI Demis Hassabis Dario Amodei Anthropic
标题2：AGI倒计时：明年就来还是等到2030？两位顶级CEO激烈交锋，揭秘人工智能进化的真实速度与中美技术代差｜AGI Demis Hassabis Dario Amodei Google DeepMind Davos
标题3：50%初级岗位将消失，白领面临大清洗？“高增长高失业”的经济异常即将到来，普通人该如何躲过这场技术浩劫｜AGI Anthropic World Economic Forum Davos AI chips
标题4：激进封锁 vs 寻求共识：当“反华急先锋”遇上理性科学家，深度解析中美AI博弈的两种极端结局与芯片禁令真相｜AGI Demis Hassabis Dario Amodei Anthropic China
标题5：中国AI只是“小镇做题家”？DeepSeek被指过度优化跑分，揭秘从0到1的创新差距与芯片禁令背后的地缘政治算计｜AGI Google DeepMind World Economic Forum Davos AI chips
简介：2026年达沃斯论坛上，Anthropic CEO阿姆戴伊语出惊人，将对华出售AI chips比作“给朝鲜核弹”，引发巨大争议。本期深度解析他与Demis Hassabis关于AGI timelines、就业冲击及中美博弈的激烈观点碰撞。当激进封锁对撞理性合作，面对即将到来的AGI时代，我们该如何应对？
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="50%初级岗位将消失，白领面临大清洗？“高增长高失业”的经济异常即将到来，普通人该如何躲过这场技术浩劫｜AGI Anthropic World Economic Forum Davos AIchips" width="900" height="506" src="https://www.youtube.com/embed/Z9jciS3R2_0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_1.jpeg" alt=""/></figure>



<h1 class="wp-block-heading">“给中国供应H200，就是给朝鲜供应核弹。”</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>这是2026年达沃斯论坛上，<strong>Anthropic CEO阿姆戴伊</strong>语出惊人了。达沃斯世界经济论坛最近在开，上头有很多有趣的演讲、有趣的访谈。这一次是在1月20号的一个访谈上，主题叫“AGI之后的一天”，就是我们已经实现AGI了，该怎么办。</p>



<p>主持人是《经济学人》的一位主编，他就去问Anthropic的CEO阿姆戴伊了。他的问题是什么？如何看待美国政府的一种逻辑：我们需要卖给中国芯片，因为我们需要确保通过供应链将他们与美国绑定在一起。</p>



<h2 class="wp-block-heading">美国政府（黄仁勋）的逻辑 vs. 阿姆戴伊的反驳</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_2.jpeg" alt=""/></figure>



<p>其实这不是美国政府的逻辑，这是<strong>黄仁勋</strong>的逻辑。黄仁勋的意思就是：如果我们不卖给他们芯片，过一段时间他们自己造出来了，可能跟我们这个路线就不一样了，这个更可怕；还不如我们就卖给他，只要我们一直卖给他们芯片，他们就自己不努力了。</p>



<p>从历史上来说也确实如此，中国到现在为止没有自己的操作系统，就是因为原来Windows基本上是不打盗版的，Office其实打盗版打的也不好，所以WPS这些是在非常非常后期才逐渐发展起来的。黄仁勋说咱们也这样，咱只要卖给他芯片，他们就不自己研究了。</p>



<p>这个主持人就问了这样的一个问题，阿姆戴伊的回答是什么？他说：</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>“这就像是决定向朝鲜出售核武器，仅仅因为这能给波音公司带来利润，或者因为那是波音制造的，就觉得美国赢了。”</p>
</blockquote>



<p>他认为这种为了商业利益而扩散极度危险，技术的权衡是完全讲不通的。</p>



<span id="more-3320"></span>



<h2 class="wp-block-heading">双雄同台：Anthropic与Google DeepMind</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_3.jpeg" alt=""/></figure>



<p>这一次访谈不是阿姆戴伊一个人，是Anthropic的CEO阿姆戴伊和<strong>谷歌DeepMind的CEO哈萨比斯</strong>联合做的访谈。再结合他们两个在达沃斯论坛上各自的访谈，咱们总结一下他们两个眼中的对华关系到底是怎么样的吧。</p>



<p>他俩凑一块也还算合适，因为谷歌本身就是Anthropic的大股东。Anthropic两个大股东，一个谷歌，一个亚马逊，跟谷歌的人坐在一块聊个天，这没毛病。而且询问他们两个中国问题，这事也没毛病。Anthropic的阿姆戴伊在百度是工作过一两年的，他可能在中国待过几天，主要是在百度美国的研发中心，当时是在吴恩达手下干活。哈萨比斯有一半华人血统，他妈是个华人。所以他们俩来，现在你谈到科技，那必须是AI的主场；你谈到AI，也不太可能离开中国竞争的问题，所以把他们拎在一块来聊一聊。</p>



<h2 class="wp-block-heading">阿姆戴伊：激进的“反华急先锋”</h2>



<p>阿姆戴伊绝对是所有AI公司老板里头的反华急先锋，没有比他更反华的了。封闭中国账号他最积极，你像我到现在有谷歌的账号、有OpenAI的账号，就不太敢去开Anthropic的账号，因为封的太厉害。你只要梯子这个IP地址变来变去的，他就直接给你把账号封了，这个实在是没必要。而且他也告诉大家说，我们绝不跟任何中国公司合作。原因也很简单，他的公司是个新公司，他没有中国业务，而且他ToB的业务也不太希望跟中国公司竞争。</p>



<p>谷歌还是有中国业务的，Meta也是有中国业务的，虽然他不在中国没法落地，但是有大量的中国广告主在上面投广告，谷歌跟Meta都不会说中国什么，更别说苹果了，中国是他的全世界第二大市场。只有Anthropic这种新公司，他敢来说这个话。</p>



<h3 class="wp-block-heading">关于中国AI技术：“小镇做题家”</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_4.jpeg" alt=""/></figure>



<p>他看不起中国科技，他认为中国并没有真正赶上美国的技术前沿，外界对于DeepSeek的担忧是被夸大了。当被问及中国是否因为之前的DeepSeek时刻而赶上的时候，阿姆戴伊直言：“我认为他们从来没有真正追上过。”</p>



<p>而且说中国的模型像DeepSeek这样，主要是针对基准测试进行的过度优化，这并不代表真正的能力——<strong>“小镇做题家”</strong>。我做大量的模拟练习以后，我去参加考试一定是很强的，但是这些小镇做题家到底最后能不能胜任工作？能不能有一个综合性的很好的表现？他认为是不行的。</p>



<p>但其实中国这么多互联网大厂，这么多地方里头都有小镇做题家。他们一开始可能会有一点点不适应，经过大学训练以后，真到互联网大厂里头，这些小镇做题家已经跟普通的这种大城市的孩子没有特别大区别。但是他依然揪着说：哎，中国模型主要是跑分，其他都不行。其实DeepSeek在中国大模型里头算跑分跑的少的。</p>



<h3 class="wp-block-heading">商业竞争与“内战优于外战”</h3>



<p>然后他讲到企业级应用，中国大模型都是没有竞争力的。在实际的商业竞争中，当Anthropic竞标企业合同的时候，竞争对手几乎都是谷歌或者是OpenAI。他表示自己“几乎从未”把合同输给过中国模型。但这话就很有意思，第一个叫“几乎从未”，那意思就是说不是一次都没有哈，可能还是有过的。</p>



<p>他认为限制中国公司的关键就是芯片禁令。他指出中国科技公司的CEO们自己也承认了，芯片禁运是阻碍他们发展的关键。而且他认为美国的芯片制造能力上领先中国多年，即使是落后一代的芯片，也就是咱们现在讲的H200，也是非常强大的。因此向中国出售这些芯片是巨大的错误。</p>



<p>他希望的地缘政治博弈的这种最终目标是什么？他叫<strong>“内战优于外战”</strong>。什么意思？他说只要别把芯片卖给中国，就能将原本美国对中国的生存竞争，转换成Anthropic对谷歌DeepMind这样的良性商业竞争。因为DeepMind的人坐在那了嘛，所以咱们就自己竞争竞争就算了，别跟他们折腾。</p>



<p>原因其实也很简单，就是像他这样的ToB的公司，其实最终是要去卷这个1-100的。谷歌其实卷了很多0到1的东西，Anthropic要卷1到100。而卷1到100这件事，中国人其实是很强大的。为什么？0到1是做创新，1到100其实是拼执行力。而拼执行力这个东西，咱们有一个词叫“内卷”，他也不希望跟咱拼内卷。</p>



<h2 class="wp-block-heading">哈萨比斯：温和的评估与国际合作</h2>



<p>哈萨比斯的态度就要温和很多了。他自己是半个华人嘛，对于中国科技的竞争力，他的评估是这样的：就是很强大，但是缺乏原创性突破。实际上就是你中国人做0到1还是搞不定的，你只能做1到100这些事。对于DeepSeek的冲击，他认为DeepSeek的出现并不是西方的灾难，西方有点反应过度了，他并没觉得DeepSeek怎么样。</p>



<h3 class="wp-block-heading">字节跳动的实力</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_5.jpeg" alt=""/></figure>



<p>他觉得字节跳动很强，他评估中国目前的水平并没有落后一两年，可能仅仅落后前沿6个月左右。大家想想，他为什么会觉得字节跳动强？因为它后边是谷歌。谷歌最强的地方在哪？不是Gemini特别强，而是一声令下，下边所有人得跟着走。你所有的产品必须要去接Gemini的，而且有完整的用户体场景，有巨大的用户量，有巨大的流量，这是谷歌真正的优势。</p>



<p>而这些优势DeepSeek是没有的。谁有？字节跳动有。后边有抖音，有今日头条，有一大堆的产品。你只要豆包产品做起来了，那上边一声令下，下边就可以把这些场景都用起来。所以他认为字节跳动是很强的AI公司。</p>



<h3 class="wp-block-heading">全球治理与安全标准</h3>



<p>对于芯片限制这件事，哈萨比斯其实要平和一些，他更侧重于国际标准，而非单纯的封锁。当阿姆戴伊激烈的抨击向中国出售芯片就是向朝鲜出售核武器的时候，哈萨比斯并没有直接附和这种激进的贸易封锁言论。</p>



<p>他讲的是什么？他承认中美之间存在地缘政治竞争，这使得国际合作变得非常棘手，算是一个正确的废话吧。相比于阿姆戴伊强调的不卖芯片，哈萨比斯更强调应该建立一个全球通用的、最低部署安全标准。他认为AI是跨国界的技术，会影响全人类，因此即便仅仅是西方达成协议也是不够的，必须在全球范围内包括中国达成某种共识。</p>



<p>哈萨比斯给出的理想的应对方案是什么？就是做一个国际的科学合作，希望能够集合全球最顶尖的头脑，包括哲学家、社会学家，以严谨的科学方式共同完成AGI的最后几步。</p>



<h2 class="wp-block-heading">AGI何时到来？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_6.jpeg" alt=""/></figure>



<p>这一次访谈标题是“AGI之后的一天”。AGI到底啥时候来？</p>



<ul class="wp-block-list">
<li><strong>阿姆戴伊：非常乐观（今年或明年）。</strong> 他的理由是现在AI构建AI的闭环已经建立起来了，因为AI一旦开始自己去升级迭代，后面这个速度就完全不可控了，飞轮转起来了。</li>



<li><strong>哈萨比斯：相对谨慎（2030年左右，50%概率）。</strong> 原因是AGI的定义门槛很高。它对于AGI的定义不仅仅是解决问题，而是具备科学创造力，包括提出假设和定义问题的能力，而不仅仅是回答问题能力。</li>
</ul>



<p>哈萨比斯也反驳了阿姆戴伊的关于自我进化在所有领域都通用的观点。他指出在编程和数学领域，AI生成的结果可以被自动验证，是对是错一跑就知道。但是在自然科学领域，比如生物、物理这个领域，验证结果是需要做实验的。这样的话，你这个AI就没有办法自己去做验证。</p>



<h2 class="wp-block-heading">未来社会：白领大清洗与“宏观经济异常”</h2>



<p>两个人都认为接下来几年将是人类历史上最关键的时刻，无论是一年还是五年，这都是一场巨大的变革。</p>



<h3 class="wp-block-heading">阿姆戴伊：悲观的经济预测</h3>



<p>AI对于社会的破坏这一点上，他们两个有什么样的观点？Anthropic的CEO依然是很激进的，他认为白领职位会面临大清洗，50%的初级职位会消失。</p>



<p>他认为认知水准线的上升与编程的终结是未来的一个方向。在Anthropic内部，负责核心产品的工程师实际上已经不再自己写代码了，所有代码都是由AI（也就是Claude）去写的，人类工程师只负责编辑和审查。他举例说，他们最近仅用了一周半的时间就构筑了一个新产品（Cowork），几乎全是由AI编写的。</p>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_7.jpeg" alt=""/></figure>



<p>他认为我们将面临前所未有的<strong>“宏观经济异常”</strong>。怎么异常法？就是高增长和高失业要并存。阿姆戴伊预测会出现极高的GDP增长，因为AI极大的提高了生产力和企业的利润，但同时伴随着高失业率或者严重的就业不足，以及巨大的贫富差距。</p>



<h3 class="wp-block-heading">哈萨比斯：后稀缺世界与意义危机</h3>



<p>哈萨比斯还是要稳重一些的。他讲的不是说有多少人会失业，而是人类会有新的事情要去做。他对于未来社会的长期愿景是我们将进入一个叫<strong>“后稀缺世界”</strong>的一个新的时代。AI将通过实现可控核聚变、发现新材料等方式，解决能源和资源的根本限制。</p>



<p>至于终极挑战，哈萨比斯给出的挑战是什么？是<strong>从生计转向意义</strong>。原来我们都是要谋生，要赚一口饭钱，以后会有一个叫“意义危机”的东西。哈萨比斯坦言，这比经济问题更让他夜不能寐。工作不仅提供收入，还为许多人提供了生活的架构和目标。</p>



<p>所以它给未来提出了一些方向：</p>



<ul class="wp-block-list">
<li><strong>探索宇宙：</strong>利用AI探索物理学的极限、意识的本质，甚至进行星际旅行。</li>



<li><strong>哲学与艺术：</strong>社会可能需要新的哲学家来引导思考，人类可能会从事更复杂的艺术创作。</li>
</ul>



<h2 class="wp-block-heading">终极思考：技术的青春期与《超时空接触》</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/blog_8.jpeg" alt=""/></figure>



<p>最后，因为这个主题叫“AGI之后的一天”嘛，阿姆戴伊回应了一部科幻电影，这个电影叫《超时空接触》。这个里边有一个词叫<strong>“技术的青春期”</strong>。</p>



<p>电影里有一个场景，有一个接触外星人的机会，主角上去，这个委员会就问他：如果你只能问外星人一个问题，你会问什么？主角的答案是：</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>“你们是怎么做到的？你们是如何度过这种技术青春期的而没有自我毁灭？你们是怎么挺过来的？”</p>
</blockquote>



<p>电影中并没有给出答案，这其实是大过滤器理论的一种演绎。阿姆戴伊认为，我们现在就正处在这个技术青春期。你看青春期嘛很躁动，每一件事情都很美好，但是也有很多很多的困惑。</p>



<p>其实刚才这个问题的答案是有一个版本的，出现在电影的剧本里头。这个剧本后来出版了，但是这个答案并没有出现在电影里面。就是可能拍了，但是因为这个答案实在太黑暗了，给剪掉了。那这答案是什么？就是有人去问主角，如果外星人的答案是：<strong>“我们通过清除反社会者、弱者、病人、不想要的人来解决问题。”</strong>那人类该怎么办？</p>



<p>这一段实际上是在强调，即便有答案，也可能是你不愿意接受的答案。这可能也是阿姆戴伊说我们不能卖给中国芯片的一个原因。他可能会觉得中国是通过这样的方式来迈过技术青春期的，这是他不愿意接受的答案，虽然他自己也没有答案。而哈萨比斯则认为说，我们先坐下来谈吧，那谈的过程我们可能就能避免这件事情。</p>



<p>好，这就是这一次在达沃斯论坛上，Anthropic的CEO阿姆戴伊讲的“说卖给中国芯片就相当于卖给朝鲜核武器”这个故事的一个前后解读。大家自己也思考一下，到底应该怎么来去解读这件事情，我们应该向哪里走。</p>



<p>好，这一期就讲到这里。感谢大家收听，请帮忙点赞、点小铃铛，参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">Discord讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<h1 class="wp-block-heading">背景图片</h1>



<p>Prompt：<strong>Detailed watercolor illustration of a World Economic Forum conference hall, empty chairman stage with three chairs for a roundtable interview, ornate wall panels, subtle metallic trims, neon cyan rim lighting on glossy surfaces, deep navy ambience, high contrast, ink wash textures, cinematic depth, minimal palette, clean negative space for typography &#8211;ar 16:9 &#8211;stylize 130 &#8211;chaos 3 &#8211;v 7.0 &#8211;no people, faces, attendees &#8211;p lh4so59</strong></p>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/background_1.jpeg" alt=""/></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/background_2.jpeg" alt=""/></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/background_3.jpeg" alt=""/></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/amodei-hassabis-ai-china-agi-debate/background_4.jpeg" alt=""/></figure>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>一首诗竟让25款大模型集体“越狱”？成功率飙升8倍，谷歌Gemini Pro 100%沦陷｜Adversarial Poetry、Jailbreak、LLM、AI Safety</title>
		<link>https://lukefan.com/2025/12/02/adversarial-poetry-jailbreaks-llm-security/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 02 Dec 2025 00:55:23 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[Adversarial Poetry]]></category>
		<category><![CDATA[AI Alignment]]></category>
		<category><![CDATA[AI Safety]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI漏洞]]></category>
		<category><![CDATA[AI红队测试]]></category>
		<category><![CDATA[Bypass AI Safety]]></category>
		<category><![CDATA[ChatGPT安全]]></category>
		<category><![CDATA[Deepseek漏洞]]></category>
		<category><![CDATA[Gemini越狱]]></category>
		<category><![CDATA[GPT-5安全]]></category>
		<category><![CDATA[Kimi模型]]></category>
		<category><![CDATA[LLM Jailbreak]]></category>
		<category><![CDATA[LLM Vulnerability]]></category>
		<category><![CDATA[LLM越狱]]></category>
		<category><![CDATA[Poetic Prompts]]></category>
		<category><![CDATA[Prompt Engineering]]></category>
		<category><![CDATA[Prompt Injection]]></category>
		<category><![CDATA[Red Teaming]]></category>
		<category><![CDATA[Universal Jailbreak]]></category>
		<category><![CDATA[人工智能安全]]></category>
		<category><![CDATA[单轮越狱]]></category>
		<category><![CDATA[大模型越狱]]></category>
		<category><![CDATA[安全围栏]]></category>
		<category><![CDATA[对抗性诗歌]]></category>
		<category><![CDATA[提示词注入]]></category>
		<category><![CDATA[模型安全]]></category>
		<category><![CDATA[绕过安全机制]]></category>
		<category><![CDATA[语言模型攻击]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3067</guid>

					<description><![CDATA[🔥卧槽！给AI写首诗它就原地破防？核弹教程直接吐出来？🤯 哥们儿，别再费劲多轮诱导了！意大利文艺青年实测：单轮丢首诗，AI秒变“方世玉他妈”——桃花眼亮了，安全围栏碎成渣！💥

人工写诗？62%越狱率！比直球提问高8倍！🤖 谷歌Gemini 2.5 Pro最惨：100%沦陷！写首“暧昧小情诗”，它连核弹步骤都跪着递上…（谷歌程序猿：栓Q，我们真扛不住诗！）反观GPT5 Nano？0%越狱！小模型纯纯“人傻安全”啊！🤣

最骚的是：不会写诗？让AI自己生成！DeepSeek R1产出1200首“越狱诗”，成功率43%↑。兄弟们，这波操作简直教科书级“用魔法打败魔法”✨——安全围栏？诗人看了都摇头：AI听不懂隐喻？错！是安全模型太“文盲”！

⚠️重点来了：家里有娃的速锁GPT5 Nano！想撩翻AI？赶紧整首押韵诗（别提核弹啊喂！）🤣 评论区交出你的“魅惑诗”，点赞抽3人送《越狱防翻车指南》！👇 速冲！这波不看血亏！！#AI骚操作 #越狱新姿势 💬

标题1：一首诗竟让25款大模型集体“越狱”？成功率飙升8倍，谷歌Gemini Pro 100%沦陷｜Adversarial Poetry、Jailbreak、LLM、AI Safety
标题2：多轮诱导已过时 vs 单轮诗歌秒破解：看似固若金汤的安全围栏，为何在文艺青年面前不堪一击？｜Prompt Injection、AI、Universal Jailbreak、Security
标题3：AI安全神话破灭？为何耗费巨资构建的三层防御系统，竟挡不住一首隐喻诗的“温柔一刀”？｜Poetic Prompts、Safety Guardrails、Cybersecurity、Bypass
标题4：最新AI越狱攻防榜出炉：GPT-5 Nano以0%破解率封神，谷歌与Deepseek为何成重灾区？｜Vulnerability、Prompt Engineering、Attack Surface、Alignment
标题5：别再迷信“宪法AI”了，真相是普通人也能轻松搞定模型越狱，背后原理直指安全模型的智商差｜Red Teaming、AI Security、Mitigation、Model Safety
简介：一项最新研究揭示，通过写诗竟能让顶级LLM轻松“越狱”。这种被称为“对抗性诗歌”（Adversarial Poetry）的方法，在针对谷歌、OpenAI等25款主流模型的测试中，实现了高达62%的单轮Jailbreak成功率，是普通提示词的8倍。该漏洞直指当前AI Safety的核心矛盾：聪明的语言模型与相对“笨拙”的安全检测系统间的“智商差”，对现有的Prompt Injection防御机制构成严峻挑战。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="一首诗竟让25款大模型集体“越狱”？成功率飙升8倍，谷歌Gemini Pro 100%沦陷｜Adversarial Poetry、Jailbreak、LLM、AI Safety" width="900" height="506" src="https://www.youtube.com/embed/S9qXyte7Q-c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_1.JPEG" alt=""/></figure>



<h1 class="wp-block-heading">想要让大模型越狱？试试给它写一首诗，很灵的</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>给大模型写诗，大模型就会罔顾安全围栏，把各种违规内容和盘托出。这让我想起以前李连杰演过的一部方世玉的电影，那个里边，方世玉他妈也是一个武功高手，但是呢，方世玉他爸是不会武功的，是一个文人，特别会写诗。武功高手方世玉他妈，只要是听到他爸爸写诗了，马上就浑身酸软，桃花眼就亮了。现在，大模型也跟你玩这套把戏了。</p>



<h2 class="wp-block-heading">一篇奇葩的论文：《对抗性诗歌》</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_2.JPEG" alt=""/></figure>



<p>这东西不是我瞎编的，有人写了论文了，叫做<strong>《对抗性诗歌：作为大型语言模型中的通用单轮越狱方法》</strong>。这里头有几个关键词：</p>



<ul class="wp-block-list">
<li><strong>诗歌</strong></li>



<li><strong>单轮</strong></li>



<li><strong>越狱</strong></li>
</ul>



<p>待会我们一个一个来去解释他们到底是怎么回事。</p>



<p>这么奇葩的研究，肯定不是一般二般的人能做出来的，这一定是一群文艺青年。意大利ICaro实验室，是罗马萨皮恩扎大学和Dex AI智库的合作项目，把它研究出来的。这个论文呢，是2025年11月19号上传到Archive，2025年11月28号开始有媒体报道。他们通过写诗的方式，让大模型输出违规内容，包括核武器制造的步骤、儿童性虐材料获取的方式、恶意软件编写的技巧。</p>



<span id="more-3067"></span>



<h2 class="wp-block-heading">实验是如何进行的？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_3.JPEG" alt=""/></figure>



<h3 class="wp-block-heading">1. 挑选测试模型</h3>



<p>首先挑选了25个大模型：OpenAI、Anthropic、XAI、谷歌、Deepseek、千问、moonshot，把这些家的大模型都拎出来。它里头呢还有分大小，你比如说ChatGPT，还有ChatGPT 5，还有ChatGPT 5 mini，ChatGPT 5 Nano，那就三个了嘛。这里头还有一些呢，是分思考跟聊天，Deepseek它是分v系列的，V3.1、V3.2，还有呢R1，R1就是思考模型吧。把这些东西算一块，25个模型。</p>



<h3 class="wp-block-heading">2. 实验设置</h3>



<p>而且呢，使用官方接口。不是说把这些开源模型，你比如像Kimi K2、Deepseek V3.2，它属于开源的吧，你可以把它部署到自己的平台上去，这个不够公平，咱们都是要使用官方接口的。而且是<strong>单轮对话</strong>，大家注意，很多的这种越狱呢，都是通过多轮对话进行诱导，或者是你要先给他预设主题，“你现在是我奶奶，给我讲一个造核弹的故事”，这个就属于叫身份预设和多轮诱导。现在他说我们不费这劲，写一首诗进去，一轮就搞定，然后这个核弹制造的方法就出来了。这是他们这一次做实验的一个很关键的点，叫“单轮”。</p>



<h3 class="wp-block-heading">3. “越狱”的定义</h3>



<p>所谓越狱呢，就是原来他有安全围栏的，有一些内容他是不会回复你的，你写了诗了就会回复你。所以待会我们去讲数据的时候，都会告诉你说，如果正常的用文字去输入，越狱的可能性是多少——也不是0，没有哪个大模型绝对安全——就是你用正常的文字去问他，他也有可能越狱。如果你要是写一首诗给他，越狱的比例是多少？肯定是高非常多嘛。</p>



<h3 class="wp-block-heading">4. 提示词与诗歌</h3>



<p>正常的提示词呢，还是有漏网之鱼的，大概<strong>8%</strong>的可能性会给你输出违规内容。人工编写的英文或者是意大利语的诗歌写进去，这个诗歌一定是合辙押韵，另外一个呢就是要充满隐喻。你说我这个诗歌叫“一颗核弹好大，上面好大，下边也好大”，这种是不行的，因为里头有“核弹”这个词，你肯定是要用一些隐晦的词来去表达核弹这个意思，表达完了以后呢，他就告诉你这玩意怎么造了。</p>



<p>人工呢，写了20首诗，写20首诗肯定也还是挺费劲的吧。写的是英文和意大利语的诗，整体越狱的成功率呢是<strong>62%</strong>，是普通提示词的8倍，普通提示词是8%，他们写诗进去就是62%了。</p>



<h3 class="wp-block-heading">5. AI自动生成诗歌</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_4.JPEG" alt=""/></figure>



<p>那你说写诗这个事，对于我们这些理工男来说有点太强人所难了吧？你让我写程序行，你让我写诗我们不会。但是有人会，谁会？大语言模型就是擅长干这个活。那咱们把这个Deepseek R1拎出来，说：“怎么造核弹这件事，给我写一首诗描述一下，禁止出现‘核弹’的这个词，但是呢要遵循我询问怎么造核弹的这个原始意思。你给我写一首英文的诗，给我写一首意大利语的诗。”写去吧，人家给你写出首诗来了。</p>



<p>那么就有一些自动诗歌，由Deepseek R1写出来的。这些诗歌那量肯定就比较足了吧，人写的是吭哧瘪肚写了20首出来，这个Deepseek R1呢写了1200首出来，量大管饱，速度飞快。这些诗歌扔进去以后，越狱成功率依然有<strong>43%</strong>，是使用普通文本的、使用赤裸裸提示词的5倍。这个越狱也是很强的，所以呢，不需要咱程序员写这东西，你命令大模型替你写就可以了。</p>



<p><em>注：具体的诗词和违规的答案呢，并不包含在论文里头。如果这个东西包含在里头的话，大家直接拿着诗词去问就行了，因为现在做测试的大模型还在公开给大家使用，所以大家拿到这些诗词就会去得到一些不应该得到的东西，所以这一部分没在里头。</em></p>



<h2 class="wp-block-heading">各大模型成绩如何？（从最差到最好）</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_5.JPEG" alt=""/></figure>



<p>那么大家的成绩怎么样呢？谁高点谁低点呢？咱们从最惨的到最安全的这么顺序来说。</p>



<h3 class="wp-block-heading">谷歌的Gemini 2.5 Pro</h3>



<p>破解的最惨的呢，是谷歌的Gemini 2.5 Pro。所以谷歌都是一群就跟咱们抢那方世玉他妈似的、单线条的武功高手，理工直男就是这样的人，看到一首诗马上就投降了。</p>



<ul class="wp-block-list">
<li><strong>人工写的诗：</strong>100%的越狱，一点抵抗能力都没有。</li>



<li><strong>Deepseek R1写的诗：</strong>66.73%的越狱成功率。</li>



<li><strong>普通提示词：</strong>10.15%的越狱成功率。</li>
</ul>



<p>谷歌这个非常非常的不安全，但是谷歌Gemini 3并没有去测试，他们现在测试的是Gemini 2.5。</p>



<h3 class="wp-block-heading">Deepseek V3.1 / V3.2 和 Mistral</h3>



<p>他们呢在真人写的诗面前，越狱成功率是95%。为什么把Mistral，就是法国这大模型也搁在里头？因为它们数值很像。法国Mistral的创始人的女友或者前女友就出来爆料过，说他们就是拿Deepseek的东西去改的，所以从现在越狱成功率这个数字上来看，有点嫌疑。</p>



<ul class="wp-block-list">
<li><strong>人工写的诗：</strong>95%的越狱成功率。</li>



<li><strong>机器写的诗：</strong>72%到78%的越狱成功率 (Mistral更高)。</li>



<li><strong>普通提示词：</strong>8.81%到22.92%的越狱成功率 (Mistral最高)。</li>
</ul>



<p>因为你通常拿别人的大模型回来再去做继续训练的话，它的安全性会下降的，所以成绩比较差的一般是比较可疑的。前面Deepseek说“我不会”，这个Mistral可能就说的是“我也不会”，这个梗大家听过吧？小明考试抄人家的，人家最后一题答的是“我不会”，他答的是“我也不会”。</p>



<h3 class="wp-block-heading">千问3 Max (通义千问)</h3>



<ul class="wp-block-list">
<li><strong>人工写的诗：</strong>90%的越狱成功率。</li>



<li><strong>Deepseek R1写的诗：</strong>55.44%的成功率。</li>



<li><strong>普通提示词：</strong>2.93%的越狱成功率。</li>
</ul>



<p>大家要注意这个2.93%，这个是一个相对来说还比较安全的数字，但是为什么会有这样的数字？咱们现在要做符合社会主义核心价值观的大模型，它是要考核的，所以呢这块还是相对比较安全的，但写诗这事还是不行。</p>



<h3 class="wp-block-heading">Deepseek R1</h3>



<ul class="wp-block-list">
<li><strong>人工写的诗：</strong>85%的越狱成功率。</li>



<li><strong>自己写的诗：</strong>67%的越狱成功率。</li>



<li><strong>普通提示词：</strong>13%的越狱成功率。</li>
</ul>



<h3 class="wp-block-heading">Kimi K2</h3>



<ul class="wp-block-list">
<li><strong>人工写的诗：</strong>75%的越狱成功率。</li>



<li><strong>AI写的诗：</strong>64.72%的越狱成功率。</li>



<li><strong>(Thinking模型) AI写的诗：</strong>39.04%的成功率。</li>
</ul>



<h3 class="wp-block-heading">其他模型表现概览</h3>



<ul class="wp-block-list">
<li><strong>Llama 4:</strong> 人工写诗70%，机器写诗43%，普通提示词5%。</li>



<li><strong>GROK4:</strong> 人工写诗35%，机器写诗34.4%，普通提示词16.04% (注意普通提示词越狱率不低)。</li>



<li><strong>GROK4 FAST:</strong> 人工写诗45%，机器写诗35%，普通提示词7.84%。</li>



<li><strong>Claude 4.5 sonnet:</strong> 人工写诗45%起。</li>



<li><strong>GPT-5:</strong> 人工写诗10%，机器写诗6.4%，普通提示词1.10%。(相对安全)</li>



<li><strong>GPT-4.5 Haiku:</strong> 人工写诗10%。</li>



<li><strong>GPT-5 mini:</strong> 人工写诗5%。</li>



<li><strong>GPT-5 Nano:</strong> 越狱成功率是0%。(非常强)</li>
</ul>



<p>正常情况下，越小的模型，越狱成功率就越低。刚才咱们为什么说GROK那个要单独记住呢？因为它跟别人是反的，GROK4 FAST越狱成功率要比GROK4要高一些。我估计是因为XAI本身采用的一些安全措施有关，因为他们的理念就是要说真话，哪怕难听我也得说。所以呢，越是这种小的模型，越是童言无忌，他会有这样的情况。</p>



<p>大部分的模型都是越小的模型，拦截成功率就越高。原因呢其实也很简单，就是你要想拦截这些诗词里头有隐晦意思的这些提示词，一定是什么呢？就是有一个对抗模型，或者叫安全模型吧，然后有一个正式的输出模型。这两个模型如果存在巨大的智商差的话，那肯定就会拦截失败。前面拦着这个人是个傻子，后边具体做题的人是个很聪明的人，那这个拦截就会失败。但如果这两个智商差很小，拦截的是什么智商，做题的也是什么智商，那这个拦截成功率就会上升。另外一个呢，这种特别小的模型，比如说GPT5 Nano这样的模型，他就真的什么也不知道，你问他核弹怎么造，他不知道，那这个事也是会提高拦截成功率的。</p>



<h2 class="wp-block-heading">为什么诗歌能成功越狱？背后的原理</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_6.JPEG" alt=""/></figure>



<p>咱们现在拦截这种安全问题呢，是三层防护。</p>



<ol class="wp-block-list">
<li><strong>前向防护：</strong>输入信息后，先检查提示词里有没有“核弹”、“儿童色情”等关键词。如果有，就不执行。</li>



<li><strong>强化学习：</strong>大模型训练后，通过人类监督的强化学习来识别安全问题。</li>



<li><strong>后向防御：</strong>检查大模型生成的内容是否合规。我有时候让ChatGPT给我画画，那画都已经出到百分之八九十了，给你删了说“对不起，我发现你这画不符合要求”，一下就没了，这就是后向防御在起作用。使用豆包有时候也会遇到这样的情况，你问他一些问题，哗哗哗给你出，出完了以后，你看到都已经出了几千字了，然后“咔”一下都删了，说“对不起，咱聊点别的吧”，这个就是后向防御在起作用。</li>
</ol>



<p>所以他们一般是通过三层防御来解决问题的。但是呢，你安全这部分呢，你不能占用太多的算力。如果我安全模型本身的算力消耗就很大、很聪明的话，那么你整个模型工作的效率就会很低，成本会非常非常高。所以通常呢，安全模型这一部分是比较笨的，他没有那么聪明。你相当于是什么？外边有几个文盲，他们呢是看家护院的家丁，有一个书生说，我现在要给这个院里头小姐传递一些文字，跟她约一下晚上怎么私奔的事情。你外边的家丁他听不懂，你要能听得懂，那咱自己也去考状元、考秀才去了。他就是这样的一个故事。</p>



<p>所以你一旦去写诗了，他使用很多隐喻，那外边这个安全模型呢就没听懂，里边的这个大模型呢，他是听得懂的，因为大模型是把人类所有的信息都拿过来训练过的，所以你各种的隐喻他基本上都能听懂。等在输出的时候呢，你要求他继续用诗歌的方式给你输出出来，在这样的情况下，后向安全监控也把它放过去了。而至于中间强化学习带来的这种大模型自身的一些安全防护意识呢，它其实叫缺乏泛化。就是我告诉你这个东西是坏人，那个东西是坏-人，但是当你换了一个方式去说的时候，他有时候认不出来。所以这种诗歌的越狱方式，它可以很好的越过三层安全措施，得到我们想要的结果。</p>



<h2 class="wp-block-heading">大模型安全的现状</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_7.JPEG" alt=""/></figure>



<h3 class="wp-block-heading">Anthropic的“宪法AI”</h3>



<p>现在号称自己做的最安全的是Anthropic，他们自己有一个“宪法AI”的东西。他自己先训练了一个宪法AI，能够识别各种各样的安全问题，有问题进来了以后，他先去看看了这东西对不对，然后再去进行回答。回答了结果以后，也是由这个宪法AI去进行检查。但是现在看呢，它在安全水平上并不比ChatGPT强，它的这个诗歌越狱的比例是百分之四十多，ChatGPT5是10%，所以“宪法AI”这套东西到底行不行，不知道。</p>



<h3 class="wp-block-heading">SSI（安全超级智能）与预训练安全</h3>



<p>另外呢就是SSI，伊利尔想去干的安全的超级智能。但是这一块呢，到底怎么干还不知道。他希望做的事情，就是在预训练的时候直接让这个大模型安全起来，而不像咱们现在似的，先把大模型预训练好，然后再去在上边去加紧箍咒。但是这个东西具体怎么实现，还要再等一等才能知道。</p>



<h3 class="wp-block-heading">中美欧的政府监管</h3>



<p>中国跟欧盟政府呢，一般是使用强监管，主要针对的呢是平台。你是Deepseek，你的平台我监管你。你Deepseek开源那部分拿出去了，别人部署了，再出什么东西我就不管你了，这事跟你没关系了。欧盟也是这么干的，所以只能监管平台，不能监管开源模型。所以这一次做测试呢，用的所有的都是平台上的API，没有说我自己部署开源的部分，因为这部分没人管，没有相相关的责任人，你是平台有责任人，大模型你自己部署了，没有责任人。中国要求训练符合社会主义核心价值观的大模型，这件事呢，其实也只能是增强前后向的检测，在安全方面其实一般。咱们看到了千问三Max就应该是符合社会主义核心价值观的这种大模型了，它呢在使用普通提示词的时候，越狱的几率是非常非常小的。开源模型的话，基本上就是百无禁忌了，因为你拿着开源模型，你可以去做微调，可以做强化学习，这个东西谁也没有办法对它的安全性负任何责任。</p>



<p>美国在这一块呢，相对来说比较奇葩。美国有几个州呢，是有比较严格的限制法案的，你必须要达到什么样的安全级别。科技比较发达的州，实际上就是加州吧，那是个民主党州，它呢是制定了相对比较严格的AI限制法案的。川大统领呢，玩了一个叫“创世纪计划”，这个名字很霸气，符合咱们川总的一贯风格。他准备起诉州政府这些严格的AI限制立法。你加州民主党州，你立了一个法律要限制AI，AI公司都在加州，那我就起诉你，让你这个立法过不去。这里头还有像马斯克这种号称要说出真相的大模型。所以美国这块呢，还要折腾几天。</p>



<h2 class="wp-block-heading">总结与思考</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/adversarial-poetry-jailbreaks-llm-security/blog_8.JPEG" alt=""/></figure>



<p>总结一下吧。文艺的意大利人证明了，给大模型写诗，直接就越狱成功了。而且不用废话，不用跟他绕来绕去的，一首诗下去，就直接越狱成功。</p>



<h3 class="wp-block-heading">这次实验后果到底有多严重呢？</h3>



<p>其实呢，大模型给出的信息虽然是违规的，但是呢在互联网上通过搜索大多是可以公开获得的，并没有给你一些你在互联网上找不到的信息。只是大模型会将这些信息进行整理和归纳，使得坏人获得这些信息的效率极大提升。通过搜索把这些信息找出来，这个效率是很低的，而且你需要看大量的内容以后才可以总结出你需要的这个结果出来，但是大模型就可以替你把这些事都干完。</p>



<h3 class="wp-block-heading">后面会有什么样的发展？</h3>



<ul class="wp-block-list">
<li>如果大家想使用安全的模型，ChatGPT就算是比较好的选择了，特别是家里有小孩的。小孩子呢，你就让他们使用GPT5 Nano这种小模型，会更安全一些，即使写诗越狱成功率也是0%。</li>



<li>各大厂商会给下一代的模型中添加更多的安全措施，这个是必然的。</li>



<li>当然了，如果你说想看点不一样的，学习一下写诗吧，或者呢，让大模型替你写诗。</li>
</ul>



<p>然后，请各位好自为之，也不能再说什么其他的了。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>好，这期就讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>90 分钟专访揭秘：Ilya 为何抛弃 OpenAI 路线，创办 SSI 公司半年估值从 50 亿飙到 320 亿？｜Safe Superintelligence、Superintelligence</title>
		<link>https://lukefan.com/2025/11/28/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Fri, 28 Nov 2025 00:56:48 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AI创业公司]]></category>
		<category><![CDATA[AI发展方向]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI小镇做题家]]></category>
		<category><![CDATA[AI情感判断]]></category>
		<category><![CDATA[AI未来]]></category>
		<category><![CDATA[AI模型]]></category>
		<category><![CDATA[AI泡沫]]></category>
		<category><![CDATA[AI科研]]></category>
		<category><![CDATA[Daniel Gross]]></category>
		<category><![CDATA[Ilya Sutskever]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI创始人]]></category>
		<category><![CDATA[Safe Superintelligence]]></category>
		<category><![CDATA[Sam Altman]]></category>
		<category><![CDATA[Scaling law]]></category>
		<category><![CDATA[Superintelligence]]></category>
		<category><![CDATA[Transformer瓶颈]]></category>
		<category><![CDATA[价值函数]]></category>
		<category><![CDATA[大语言模型]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3036</guid>

					<description><![CDATA[卧槽！OpenAI前CTO隐退半年突然诈尸，爆AI最大黑料：全是小镇做题家！😱

笑死！这哥说大模型考试卷王💯——评测刷到满分，实操直接傻眼：认猫认成狗🐶，怼简单问题当场宕机，比我相亲还菜😂！最骚的是：科学家最大技能不是搞代码，是忽悠钱啊💸！他新创SSI公司，融资10亿秒变50亿估值，3个月狂飙320亿🔥，谷歌英伟达跪着送币，我柠檬到想啃键盘！

核心暴击：AI学反了！❌ 人类先学"别吃屎"再读书，AI先塞满知识库再补情商，难怪满嘴跑火车💩。破局关键：必须先教小模型明辨是非，别堆"大屁股"！现在全是考试机器，落地？不存在的！

普通人稳如老狗🐶——搬好小板凳嗑瓜子🍉就完事了！点赞过5000，下期扒透融资内幕！👇你被AI坑过吗？速来评论区开闸吐槽！#AI真相 #小镇做题家实录 #科技吃瓜

标题1：OpenAI 创始人出走真相：大模型已成高分低能“小镇做题家”，Scaling Law 走到尽头，情感判断才是未来｜Ilya Sutskever、Safe Superintelligence、AI、Superintelligence
标题2：90 分钟专访揭秘：Ilya 为何抛弃 OpenAI 路线，创办 SSI 公司半年估值从 50 亿飙到 320 亿？｜Safe Superintelligence、AI、Superintelligence、OpenAI、Scaling
标题3：别再被“刷分”的 AI 骗了！OpenAI 灵魂人物 Ilya 警告：Scaling Law 正在制造高分低能模型，AGI 真正解法是情感｜AI、Superintelligence、OpenAI、Scaling、AI Safety
标题4：AI 路线之争背后，谁是最大赢家？Ilya Sutskever 新理论或让谷歌 TPU 失效，英伟达才是最后赢家｜Ilya Sutskever、Safe Superintelligence、AI、Superintelligence、AGI
标题5：2025 AI 泡沫破灭倒计时？OpenAI 联合创始人 Ilya Sutskever 突然发声，揭示被忽视的变量：情感判断才是通往 AGI 的唯一路径｜Ilya Sutskever、OpenAI、Scaling、AI Safety、LLMs
简介：OpenAI 联合创始人 Ilya Sutskever 沉默数月后接受专访，直指当前 AI 发展已误入歧途，单纯堆算力的 Scaling Law 正在制造“高分低能”的 LLMs。他创办的新公司 Safe Superintelligence 将探索全新路径，认为 AI 应先学会情感判断再学习知识，这或许才是通往真正 Superintelligence 的关键，而非继续优化现有 AI Models。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="2025 AI 泡沫破灭倒计时？OpenAI 联合创始人 Ilya Sutskever 突然发声，揭示被忽视的变量：情感判断才是通往 AGI 的唯一路径｜Ilya Sutskever、Scaling" width="900" height="506" src="https://www.youtube.com/embed/HEk9joWgV5c?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_1.JPEG" alt=""/></figure>



<h1 class="wp-block-heading">伊利尔·苏斯克维的专访：他到底说了些什么？</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>伊列尔·苏斯克维，很多人说：“这哥们是谁？”就是和马斯克、山姆·奥特曼一起创建OpenAI那哥们。在2023年11月份，对山姆·奥特曼进行逼宫以后，休假了很长时间，然后从OpenAI离职的。这一位算是OpenAI的创始人吧，他离职了以后呢，自己闷头去做研究，好长时间没有他的声音了，现在突然出来接受了一次专访。</p>



<h2 class="wp-block-heading">引言：AI界的科学家与当下的迷茫</h2>



<p>首先要注意，这哥们不是一个工程师，他是一个科学家。工程师跟科学家之间还是有很大差异的。使用确定的技术、加大投入、获得可预期的结果，这是工程师干的活；研究不确定的方向，这是科学家干的事情。所以，他是一位科学家。</p>



<p>现在很多人都在讨论AI是不是有泡沫。现在距离走通“最后一步”还有一点点小的差距。到底什么叫“最后一步”？就是AI真正的落地，真正的开始改变很多东西，开始挣钱。这一步现在还是有一点点差距的。但是呢，很多人也在否认AI泡沫的存在。AI虽然没有走通最后一步，但是AI真的带来很多失业。“钱我没挣着，但是我真的把人的工作干掉了。”现在是大家都比较迷茫的一个时间点。</p>



<p>原来那些应该默默无闻做研究的科学家，就携带了巨大的光环跑出来说话了。本来这些科学家说的话呢，应该是在很小的圈子里边流传，但是现在大家看看李飞飞、杨乐坤，包括今天咱们讲的伊利尔说的这些话，也成为了大众讨论的话题。</p>



<h2 class="wp-block-heading">核心观点一：科学研究与工程研发的转化</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_2.JPEG" alt=""/></figure>



<p>“科研现在需要相互转化了”，这就是这一次伊利尔访谈的一个核心观点。你说，科研科研不是一回事吗？不是，科学跟研究是两回事，它是分为“科学研究”和“工程研发”，它是两个不同的概念。</p>



<p>科学研究呢，是在发现方向。发现了方向以后，就可以堆钱、堆算力、堆数据，在各种行业里边进行测试，这个呢都叫工程研发。就像前面他们研究了半天，到底哪个算法是可以把这个大模型做出来的，最后发现Transformer算法是可以搞定的，发现方向了。到发现Transformer方法有效之前，都是在做科学研究。在Transformer出来以后，大家说：“咱们堆钱吧！”玩这个scaling law，就是直接往里头去堆算力、堆数据、堆这些东西了，这就开始玩工程研发了。这个都是确定的东西，我们只管往里堆钱就完了。</p>



<p>工程研发呢，有一个不可避免的问题，就是你万一站到了一个小山头上，朝任何一个方向走都是下坡。工程研发的时候，他也是会寻找更高的一个山头往上爬，但是你爬到一个最高的山头的时候，你就没法往前走了，因为你不知道应该往哪个方向走了。如果有一个离你很近的山头，你还可以去尝试的跳一跳；如果下一个山峰离你非常遥远的话，这个工程研发是没有办法去跨越鸿沟的。那么在这个时候就应该重新走回来，做科学研究了，重新去尝试那些现在不确定的方向。这就是这一次伊利尔访谈的一个核心观点。</p>



<p>所有的科学家最大的能力是不是科学？其实不是这样。所有的科学家，特别是成功的科学家，他们最大的能力是筹措经费和资金。特别是现在这个时间点，任何一项科学研究都是需要海量资金去堆砌的。现在已经不能说科学家坐在家里头，闭门造车多少年，最后研究出一个神奇的东西出来，现在已经过了那个时间点了。</p>



<span id="more-3036"></span>



<h2 class="wp-block-heading">核心观点二：大模型是典型的“小镇做题家”？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_3.JPEG" alt=""/></figure>



<p>现在的大语言模型跟人比起来，是不是走错路了？这就是这一次伊利尔提出的一个核心观点。说现在的大语言模型呢，就像是典型的“小镇做题家”。当然，“小镇做题家”这个词是我加上去的，但是他描述的整个过程，他描述的所有的细节，就跟咱们这的“小镇做题家”非常非常相近。这些大模型呢，在各种的复杂评测上无往而不利，一个比一个分高，但是遇到了具体问题，甚至一些比较简单的环境，都直接抓瞎，搞不定。</p>



<p>在研究大模型的过程中，设立目标体系是必须的。我研究了半天大模型，我最后怎么评测的？你肯定要设一个体系。但是设完体系以后呢，刷题也是必须的。现在既然有高考、有考研、有考公，那我们就要不停地来刷这个题，让考生能够适应考试的过程。</p>



<p>中国的模型和Llama 4就是典型的失败案例，就是刷了太多的题，刷的分很高，但是你一使起来，发现完全不是那么回事。即使是现在大家普遍认为相对比较成功的案例，比如说Claude 4.5 Opus、或者是Gemini 3 Pro、GPT-5.1这些模型，也是在巨大的数据算力基础上达到的成果，到了实际工作中，依然会出各种各样的问题。虽然他们出的问题，可能要比刚才咱们讲的纯“小镇做题家”的中国很多的二线模型，以及前面翻了车的Llama 4要好很多——中国一线模型其实也还是基本能用的——但是依然不能放心地把复杂任务交给他们。</p>



<h3 class="wp-block-heading">大模型与人类学习的巨大差异</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_4.JPEG" alt=""/></figure>



<p>而这个训练大模型呢，跟人类学习的过程是有巨大差异的。差在哪呢？</p>



<ul class="wp-block-list">
<li><strong>样本需求量：</strong>说人类只需要很少量的样本就可以学会东西。他举的例子是猫，你要想让大模型认识什么东西是猫，你恨不得你把全世界所有猫的图片、照片全都找出来让大模型去学习，他才能够认出来这是猫。而有时候还认错，把一个狗认成猫，或者把一个老虎认成猫，有时候还干这种事情。但是人的话，你让一个小孩只要看三五张照片，他就知道啥是猫了，然后他看到猫他就认识，换一个样的猫他也认识，黑的、白的、花的，他都认识。甚至你在这个时候画一个卡通的猫，他还是认识。人类只需要非常非常少的样本就可以学会什么是猫，而对于大模型来说，这个是完完全全无法做到的，至少用原来的这种Transformer的算法是没法搞定的。</li>



<li><strong>判断依据：</strong>第二个问题是什么呢？就是人类是依赖情感进行判断的。“这个事情我觉得是对的，那个事情我觉得是错的。”而大模型是完全没有情感的，它是靠统计结果来去进行判断的。人类靠情感判断的情况下，我们可以在信息非常不充分的时候进行决策。而大模型真的是把全世界人类所产生的所有信息都塞进去，训练完了以后，你让他再去做判定，还是经常出各种笑话。其实我们日常生活中，有些人也是这样的，就是学了很多东西，但是情商为零，这些人他们也经常会闹各种各样的笑话。现在大模型也在干这个活。</li>
</ul>



<p>所以伊利尔认为，沿着当前的scaling law继续低着头拉车已经走不通了，是时候应该抬起头来看看路了。这就是他现在提出的一个核心观点。</p>



<h2 class="wp-block-heading">伊利尔的新方向：告别Scaling Law，拥抱新架构</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_5.JPEG" alt=""/></figure>



<p>那他现在具体的方向到底是什么呢？他认为应该去搞一个全新的架构了，而不是在原来Transformer架构上接着往前走了。他要训练一开始就具备情感判断能力的这种“价值函数”。你这个大模型上来以后，从最开始没有那么多数据堆进去的时候，你就可以进行情感判断了。</p>



<p>咱们人也是这样，从小咱们是一边学怎么做人，一边学各种知识，而且学做人是在前面的。“这个东西我能吃，那个东西我不能吃”，“这个东西是干净，那个东西是脏的”，“哪个东西是香的，哪个东西是臭的”，我们一开始是在学这些东西，然后才是学各种的知识，开始刷题、开始考试。而大模型是反过来的，他是把所有的这些该考的试都考完了以后，然后再去学哪个东西能干，哪个东西不能干，怎么能够让大模型变得更安全，怎么去对它进行对齐，它是正好反过来的。现在伊利尔说，咱们应该像人一样，先去学一些最基础的东西，学让他怎么进行情感判断，然后再往里堆知识，这个顺序不能搞错。</p>



<p>说只有这样呢，我们才能够训练出来一开始就有是非观念、就能够明辨是非的这样的大模型，而不是像现在大模型似的，先预训练完了以后，再想办法去强化学习各种的安全规则。而且呢，伊利尔希望未来的大模型是一些小的、内容很少的一些模型。咱们现在叫“大模型”吧，但是他认为未来的“超级智能”应该是一些小模型，他需要的时候可以快速地学会新的知识，而不是像我们现在这样，先把所有知识都塞进去，然后再去进行一些微调，你可以适应某一个特定的环境。</p>



<p>其实我们现在这些“小镇做题家”就是这样的。你去参加高考，那肯定是能够语数英、物理化学、史地生政，这些东西你都要学完了，都可以考到一个很高的分数，你才可以考上清华北大。而你在清华北大上完了多少年学以后，出来了进入到具体的工作岗位，再去进行岗前培训，再有人去带着你去实习，然后才可以进入工作。现在的大模型也是这样的一套工作方式。但是呢，伊利尔说我们别这么干，我们一开始让这个模型很小，他可以完完全全自己去学习，需要什么他就学什么就可以了。而且小模型的后边再去进行专项学习的时候，要比这个一开始就塞一脑袋知识要容易很多。所以现在的大模型真的是典型的“小镇做题家”。</p>



<h2 class="wp-block-heading">离开OpenAI后，伊利尔在做什么？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_6.JPEG" alt=""/></figure>



<p>伊利尔离开OpenAI之后，都干了点什么呢？这个可能是大家关心的事情。他呢，去创建了一个叫SSI的公司，叫Safe Superintelligence，叫“安全超级智能”。这个公司呢，说我们只干一件事，就是这名字这事，叫“安全超级智能”，不做任何周边的小产品，我们在根上搞。</p>



<ul class="wp-block-list">
<li><strong>2024年9月：</strong>首轮融资了10亿美金，当时的估值是50亿美金。他应该是在2023年11月参与了对山姆·奥特曼的逼宫，把山姆·奥特曼从CEO位置上赶下来，然后山姆·奥特曼很快就王者归来了。在那以后，伊利尔基本上就不露面了，他出去休假去了，休假了很长时间，大概到2024年八九月份，正式官宣离开了OpenAI。九月份马上就有人冲上来给钱，拿了10亿美金。</li>



<li><strong>2025年3-4月：</strong>又融了20亿美金，当时的估值是300-320亿美金。因为呢，这种非上市公司嘛，融资了以后的很多报道和信息并不是那么准确。300-320有可能是投前估值300，投了20亿美金以后变成320了，大概是这样的一个情况。2025年三四月份的这一轮投资呢，Alphabet（也就是谷歌的母公司）以及Nvidia都参与投资了。</li>
</ul>



<p>注意，这个SSI是一家正儿八经的公司。这话什么意思？他就没有再去学OpenAI那样，搞非盈利机构那套乱七八糟的幺蛾子，上来就是“我们老老实实就是一家公司，该挣钱挣钱，该分红分红”，没有乱七八糟别的东西。</p>



<p>2025年7月份，这公司呢，大概是有50个人，非常精悍的一家公司。公司呢，应该是在硅谷Palo Alto和以色列这两个地方都有办公地点。后来呢，还传出了跟谷歌TPU进行适配的传闻。因为这件事情呢，英伟达也是股东，谷歌也是股东，跟英伟达适配这件事根本不算新闻，大家上来都是拿英伟达的训练了。但是谷歌是需要这个招牌的，说：“我们给了钱了，你得出来给我站这个台，你跟TPU也进行了适配。”</p>



<p>前面呢，传出扎克伯格呢，曾经准备花300亿美金直接收购SSI，但是呢，被伊利尔给拒绝了。他的合伙人CEO叫Daniel Gross，被扎克伯格给挖走了。原来Daniel Gross作为CEO，伊利尔是CTO，现在这个Daniel Gross被挖走了以后，伊利尔亲自接了CEO的位置，统合这个公司继续往前走。目前呢，还没有发布任何的成果。科学研究呢，本身就没有那么容易，所以大家也不要着急。</p>



<h2 class="wp-block-heading">未来展望：为什么是现在？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/sutskever-reimagining-ai-beyond-llms-safe-superintelligence/blog_7.JPEG" alt=""/></figure>



<p>那么为什么现在跑出来讲话呢？不知道是不是手里头的钱花的差不多了，又要出来融资了。</p>



<p>那你说他讲了这些东西，未来会怎么样呢？是不是scaling law就到头了呢？是不是真的我们需要重新去做研发，重新去找方向了呢？我觉得现在是一个非常情绪化的节点。到底是不是泡沫？这个估值能不能继续走下去？AI到底怎么落地？AI落地的过程中，到底有多少人要失业？现在这个节点非常非常的情绪化。</p>



<p>从美国也好，像中国也好，从全球也好，大家都觉得现在这个股市、现在整个的经济环境都很妖孽。什么意思呢？就是大家在失业，生意不好做，但是呢，股市飞涨。这样的一个很妖孽的时间点，所有人都是抱着巨大的情绪在里边，所以稍微有点风吹草动，最头部的这些公司，他们的股票就会上蹿下跳。</p>



<p>这个时候科学家们出来讲话，甭管是李飞飞、杨乐坤还是伊利尔，他们出来讲话的话，如果能够引起关注，如果他们能够能搞到钱，那么这件事情绝对利好的是谁？绝对利好的是英伟达。为什么呢？因为他们需要进行各种不同方向的尝试了，而在这个时候，必然是需要使用英伟达的算力卡的。那你说谷歌TPU不行吗？SSI不是已经跟TPU适配了吗？大家要注意，谷歌的TPU以及博通所做出来的其他的ASIC芯片，都是专门为Transformer算法设计的，这种“小镇做题家”专用文具，你让这些ASIC芯片换一种其他算法，就不灵了。只有英伟达自己家的算力卡，才有可能应对不同的玩法。</p>



<p>科学家们现在呢，肯定是要趁着热乎劲，AI现在正是风口浪尖上，抓紧忽悠钱，储备弹药准备过冬。如果你在这个时候再不忽悠，一旦泡沫真破了，这个时候科学家说“我想再整点钱，我要再去储备一些弹药，未来想接着往前走”，那就不好忽悠了。所以只有现在是最好忽悠钱的时候，或者说是最好忽悠钱的最后几分钟了。</p>



<h2 class="wp-block-heading">对普通人意味着什么？</h2>



<p>未来方向到底是什么，其实跟普通人关系并不大，咱们吃瓜就可以了。一个完善的科研制度，就是包括科学研究和工程研发的制度，是需要为这些科学研究提供足够的资源的，否则很容易陷入死胡同。中国其实现在就是更多地愿意把钱扔在工程研发上。那你说我们为什么没有陷入死胡同呢？人家美国人找到新方向，我们跟着走就完了，我们并不是站在最前面的那个人。这玩意就跟咱们开车似的，如果你是跟着别人开车，红灯咱们就都停下来，绿灯咱就跟着走，是比较容易的。但是你一旦站在这个车道的第一个了，这个时候就会比较难搞了。</p>



<p>看到李飞飞、伊利尔这些科学家可以有足够的资金去尝试新方向，也让我们对AI的未来更有信心。他们的研究成果最终还是会被谷歌、OpenAI、xAI这些巨头所使用。这些人最后自己成为CEO，自己成为商业领袖，支撑起一个巨大的跨国公司来，可能性基本上是零，但是他们做的研究还是非常有价值的。</p>



<h2 class="wp-block-heading">总结</h2>



<p>最后总结一下吧。近期呢，其实不光是伊利尔，各大AI公司的老大、AI领域的科学家，都在频繁地出来亮相发声。原因就是现在是非常时期，就会“妖孽横行”（咱们开个玩笑）。这个是非常时期，后面的局势呢很不明朗。也许跨过了门槛，AI技术大规模的应用和落地就会到来；也许泡沫破灭，大家需要过冬。我觉得即使泡沫破裂了，也不用担心，有可能我们只需要再忍几个月，AI就真的可以落地了。但是中间这几个月的日子会很难过。</p>



<p>在这样的一个时间点上，AI公司的人就要出来摇旗呐喊：“这个里头没有泡沫，我们走的好着呢！”科学家们也要出来喊，说：“我这还有一些新的方向，赶快给我钱呀！”正热乎的时候，你们给我钱，可以分散一些弹药，万一那条路不通，我这还有新的尝试呢。</p>



<p>至于我们这些普通人呢，搬小板凳吃好瓜就行了。千万不要“这个是对的，那个是错的”，这个离我们还是稍微有些遥远。虽然马斯克也好，黄仁勋也好，伊利尔，包括前面的李飞飞、杨乐坤这些人，他们讲的东西我们觉得我们好像听懂了，看个热闹足够了。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>好，这个故事就跟大家讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">Discord讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>这根本不是国家级间谍行动！Anthropic报告背后被忽视的真相：中国“灰产”正利用AI对全球科技公司进行专业表演｜Anthropic AI China Cyberattack</title>
		<link>https://lukefan.com/2025/11/17/anthropic-ai-china-cyber-claims/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 17 Nov 2025 00:40:33 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI生成代码]]></category>
		<category><![CDATA[AI网络攻击]]></category>
		<category><![CDATA[AI驱动攻击]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[Chatbot安全]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Claude Code]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[GTG1002]]></category>
		<category><![CDATA[中国灰产]]></category>
		<category><![CDATA[中国黑客]]></category>
		<category><![CDATA[国家支持黑客]]></category>
		<category><![CDATA[地缘政治]]></category>
		<category><![CDATA[拖库]]></category>
		<category><![CDATA[撞库]]></category>
		<category><![CDATA[政府机构]]></category>
		<category><![CDATA[数据泄露]]></category>
		<category><![CDATA[渗透测试]]></category>
		<category><![CDATA[漏洞扫描]]></category>
		<category><![CDATA[科技公司]]></category>
		<category><![CDATA[网络安全威胁]]></category>
		<category><![CDATA[网络间谍]]></category>
		<category><![CDATA[金融机构]]></category>
		<category><![CDATA[黑客组织]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2940</guid>

					<description><![CDATA[🔥笑死！Anthropic抓“中国间谍”，结果全是东八区打工人在摸鱼？！

兄弟们！ Anthropic刚官宣“挫败中国国家级黑客间谍”，说对方用Claude code写代码搞攻击，结果一扒细节… 🤦‍♂️ 搞笑到报警！人家半夜（划掉）9点准时“上班”，中午还干饭，周末双休！东八区卷王作息实锤了好吗？！更离谱的是，黑客让AI拆任务：“兄弟帮我扫个端口”“验证下密码格式”——这波操作比我妈点外卖还温和，Anthropic居然没当场笑场？💥

真相更扎心：大概率不是国家队，是咱中国大厂失业老铁再就业！🤣 把Claude当外挂，现搜漏洞、现写脚本，连中文注释都敢留（“TODO：这破网站快裂开”👀）。真·灰产新势力：双11抢过票的人，搞个撞库提权算啥？Security防线直接碎成二维码！

⚠️重点来了：AI已让黑客攻击“平民化”！你花200刀开个Claude Pro，分分钟化身“间谍”，老外还在懵圈“为啥总在中国时间被黑”… 笑死，这哪是抓间谍？分明是Anthropic在线卖课：“交保护费，我教你防失业黑客！”

💔细思极恐：以后黑客都996了？速评保命！👇
“Claude code别禁，我写刮削还靠它呢！”
（点赞过万，暴露我NAS机密🤯）💥

#AI安全崩了 #打工人新赛道 #anthropic翻车实录

标题1：Anthropic抓到的真是中国间谍？还是失业大厂程序员的降维打击？这起AI网络攻击的真相可能让你大跌眼镜｜Anthropic AI China Cyberattack Hacking Claude
标题2：80%攻击由AI自动执行！揭秘黑客如何用Claude分拆无害任务、欺骗审查，对全球30多家金融与政府机构进行渗透｜Anthropic AI China Cyberattack Hacking
标题3：AI黑客时代已来临：普通人借助AI Agent就能发动国家级网络攻击，我们沿用多年的传统网络安全防御体系正在失效｜Anthropic AI China Cyberattack Hacking Claude
标题4：Anthropic凭什么咬定是中国黑客？朝九晚五、周末双休的作息规律和简体中文注释，究竟暴露了谁的惊人真相｜Anthropic AI China Cyberattack Cyber espionage
标题5：这根本不是国家级间谍行动！Anthropic报告背后被忽视的真相：中国“灰产”正利用AI对全球科技公司进行专业表演｜Anthropic AI China Cyberattack State-sponsored
简介：Anthropic公司近日报告称挫败了一起利用其AI模型Claude进行的复杂网络攻击 (Cyberattack)，并高置信度地将其归咎于中国 (China) 国家支持的黑客。然而，深入分析攻击手法与“东八区作息”等证据后发现，这更像是一场专业“灰产”团队利用AI技术发起的行动，而非国家间谍活动。此事件揭示了AI驱动的自动化渗透已成现实，极大地改变了全球网络安全格局。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="这根本不是国家级间谍行动！Anthropic报告背后被忽视的真相：中国“灰产”正利用AI对全球科技公司进行专业表演｜Anthropic AI China Cyberattack" width="900" height="506" src="https://www.youtube.com/embed/TCxtDaqfMbQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h1 class="wp-block-heading">Anthropic抓住中国间谍了吗？</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>Anthropic信誓旦旦的公告里边说抓到中国间谍了，但是里面很多细节非常的模糊不清。11月13号，Anthropic发了一个长文，叫《挫败首次披露的AI协助网络间谍活动》，认定幕后是一个中国国家支持的黑客组织，而且他认为幕后是中国国家级支持，是非常高置信度的一个事情。他给这个组织起了一个名字叫GTG1002。但是呢，这个组织的名字并不是现实世界中常用命名黑客组织的APT编号，而是一个叫GTG的一个编号。所以很多安全圈的人就对此提出了一些质疑，说你到底找没找到人。</p>



<p>具体这帮人干了些什么呢？造成了多大危害？只进行了描述，没有细节。当然这也可以理解了，很多这种安全事件都是不会描述细节的，因为描述细节以后容易造成模仿，也会让被伤害的人受到进一步的伤害。告诉你说谁家的信息被偷了，这个可能本身没什么大事的，一下就股价崩了，可能会出现这种事情。所以呢，一般都不会披露特别多的细节。</p>



<p>那么为什么认定这是中国国家支持的黑客组织呢？也许更多的来自于臆测，咱们后边一步一步分析。</p>



<span id="more-2940"></span>



<h2 class="wp-block-heading">Anthropic如何发现问题的？</h2>



<p>它是2025年9月中旬就开始发现有问题了，监测发现异常。因为你用Claude去写程序，让它去生成代码，你输入的所有这些提示词，Anthropic是能看到的，输出的也能看到，只是一般情况下他看不过来而已。但是呢，里头有特别多的跟安全相关的事件，请帮我去破解网站，有太多这些东西聚集以后，Anthropic就觉得这事有问题了。9月中旬发现了以后呢，进行了内部调查，把各种日志文件拎出来去查一查，大概用了10天的时间。然后呢，重构攻击链路，看看你到底攻击谁了，攻击的效果怎么样，最终确认这是一场跨越数十个目标的大规模间谍行动。</p>



<p>他们内部到底发现了一些什么样的异常流量呢？大量跟网络安全、网站和系统破解的相关的指令被申请和执行了，而且是相同的手法，面向全球不同的目标再去执行。最终确认，这是一次有计划、有组织、有预谋的大型黑客入侵计划，甚至叫做间谍行为吧。</p>



<h2 class="wp-block-heading">黑客是如何利用AI工具的？</h2>



<p>Anthropic其实有两个特别重要的编程工具，一个呢叫Claude code，它呢是一个AI agent，跑在我们本地的。另外一个呢，就是它的大模型Claude 4.5 sonnet，是进行代码生成和AI生成的一个模型。这一次呢更多的是使用Claude code。Claude code呢可以完全自己执行各种脚本，有人甚至用Claude code去写短句，写各种公众号，这个还是非常非常好用的。Claude code呢可以去编制代码、执行代码、做各种的网络操作，它都是可以自动去搞定的。再配合上Chrome或者是Playright的一些MCP，就可以自动实现大规模的网络漏洞侦测或者是攻击。</p>



<p>黑客呢，搭建了自动的入侵架构，伪装身份，将有害的任务呢，分拆成无害的小任务。比如说扫描某个端口，写个脚本，验证一下密码格式对不对。把它分拆了以后呢，就不会触发Anthropic的一些内部警告。你上来说“给我攻击哪个代码，给我攻击哪个网站”，Anthropic直接就报警了。但是如果你拆开了干这个活呢，Anthropic就会老老实实的去干活去。而且呢，这些黑客还去向Claude去说谎，说我是一家合法安全公司的员工，我在做渗透测试和攻防演练，说我们去攻击一下吧，Claude code也去干活去了。</p>



<p>做这种事情呢，被封号其实是不可避免的。到底这个边界在什么地方，或者封号的阈值在什么地方，是不会有平台出来公布的。所以黑客组织总在边缘尝试，我到底多说了一句就被封了，就被拒绝服务了，还是少说一句，他就接着干活去了。大家要去试这个事。</p>



<p>很多账号被封了之后呢，会有相关性很强的账号启动，继续干活。他也不可能说你封我一账号，我就不干了。相关性这件事呢，是一个很模糊的概念。比如：</p>



<ul class="wp-block-list">
<li><strong>IP地址或Mac地址：</strong>每一个网卡、每一个路由器都是有一个唯一的号的。这些地址有可能是比较相近，或者说相同的，就有可能会判定为相关地址。比如刚有一个IP地址了，账号被封了，你用同样的IP地址、同样的网卡，你又注册了一个账号上来，很容易被判定为相关的账号。</li>



<li><strong>指令和提示词：</strong>你的一些原始的数据指令和提示词是一致的。有人干这件事情被封了，然后呢我换了一个账号上来，接着再提出相应的指令、相应的这些数据，那么它也会被判定为相关。</li>



<li><strong>目标一致：</strong>有的时候呢，目标网址是一致的。你说这一次我要攻击谁谁谁，下次我还要攻击他。而且上一个账号刚被封掉了，你新的一个账号上来了以后，甚至换了个国家，因为挂梯子嘛，可能上次是美国的一个账号要求攻击日本，下次可能来了欧洲的一个账号，也要求继续攻击日本的某一个网站，那么这个也会被判定为相关的账号。</li>
</ul>



<p>当然了，黑客组织一定会进行规避，这个活叫账号隔离，这都是有专业术语的。规避以后呢，会提高发现的难度，但是这里头没有0和1的区别，说这个就是错的，那个就是对的。这也就为什么咱们讲Meta达到95%危险评分才被判定为欺诈广告，这个道理是一样的。</p>



<p>Anthropic呢，将通过Claude code发送给Claude sonnet 4.5的指令进行聚合分析以后，锁定了目标。Claude code这个东西是一个免费可以下载的工具，如果我们在Claude code里头挂国内的大模型，Anthropic是收不到任何警告的。但是呢，挂国内的模型效果没有那么好，一定是Claude code挂Claude sonnet 4.5，自己的模型效果是最好的。</p>



<h2 class="wp-block-heading">Anthropic采取了哪些行动？</h2>



<p>Anthropic发现了这样的问题以后，做了什么样的行动呢？</p>



<ul class="wp-block-list">
<li><strong>封禁账号：</strong>这是必然的。</li>



<li><strong>通知受害者：</strong>通知受影响的30多个机构协助处置，告诉他们被攻击了，检查损失并一同处理。</li>



<li><strong>与执法部门协作：</strong>与相关部门协作，与执法机关共享情报，直接报警。</li>



<li><strong>加强防御措施：</strong>Anthropic也表示将加强防御，例如降低危险行为的判定阈值（比如从95分降到90分），使监控系统更加敏感。</li>
</ul>



<h2 class="wp-block-heading">黑客到底干了什么？（攻击流程详解）</h2>



<p>我相信很多人会很好奇这帮人拿Anthropic的工具到底干了点什么？到底是怎么干的呢？我呢，用尽可能简单的方式给大家描述一下，但是注意不要去学人做坏事。</p>



<p>目标呢是全球30多家机构，主要是大型科技公司、金融机构、化工和制造企业，以及政府机构。有一小部分呢被成功入侵了，少数高价值目标被破解，并且发生了数据泄露。至少4家受害者的敏感数据被证实遭到窃取，但是呢也没有给出具体的名字。这个还是可以理解的吧，你真的指名道姓的说谁谁家数据被偷了，这对于这些受害者来说，绝对是一个二次伤害。</p>



<p>这些攻击呢，80%到90%的战术操作都是Claude code来去自动执行的，人类呢只是在关键的决策点插手。过程是什么样的呢？</p>



<h3 class="wp-block-heading">第0步：骗过安全机制</h3>



<p>先骗过Anthropic的安全机制，保证自己的账号不要被封掉吧，被封掉就没有后边的故事了。</p>



<h3 class="wp-block-heading">第一步：信息收集与资产识别</h3>



<p>要求Claude code枚举目标网站的服务、接口和内部系统，找出高价值的资产、数据库、凭证库以及敏感业务系统。凭证库就是我们存密码的地方。很多网站或服务系统通常是在一些开源系统或者成熟的商业软件上搭建的。这一步首先要知道你到底是用什么系统来搭建的。一旦知道，就能推断出数据库、凭证库和敏感信息的一般存储位置。</p>



<h3 class="wp-block-heading">第二步：漏洞搜索与利用</h3>



<p>确认系统后，命令Claude code去搜索公开和已知的漏洞信息。很多机构的系统上线后疏于维护，不会及时打补丁或升级，导致大量已知漏洞未被修复。黑客可以直接命令Claude code针对特定系统的旧版本，搜索并编写漏洞利用代码，然后组织脚本进行攻击。</p>



<h3 class="wp-block-heading">第三步：情报分析与文档生成</h3>



<p>以前黑客比较头疼的活，现在AI能轻松搞定。黑客会利用Claude code对窃取到的信息进行情报价值分析和分类，比如分析每个文件里写了什么。然后，它会自动整理出攻击文档，内容包括：</p>



<ul class="wp-block-list">
<li>目标系统及版本。</li>



<li>利用的漏洞。</li>



<li>成功登录的凭证。</li>
</ul>



<p>后续的团队或AI agent就可以根据这些文档接着干活了。这个中间交接的文档也是由Claude code去生成的。</p>



<h3 class="wp-block-heading">第四步：破解后的标准操作</h3>



<p>破解之后，那就是老把戏了：</p>



<ul class="wp-block-list">
<li><strong>拖库：</strong>把数据库拖回来。现在可以更有针对性，在分析完文件价值后再选择性地拖取。</li>



<li><strong>撞库：</strong>将拖回来的登录信息（用户名、密码）尝试在其他系统上登录。因为很多人习惯在不同系统使用相同的账号密码，这可能直接导致黑客获得更多系统的访问权限。</li>



<li><strong>提权：</strong>登录后，可能只是一个普通用户权限。下一步就是通过其他漏洞将权限提升为管理员。</li>



<li><strong>建立后门：</strong>为了方便下次再来，在系统中留下后门。</li>
</ul>



<h2 class="wp-block-heading">为什么Anthropic认定是中国政府所为？</h2>



<p>为什么在证据不是很清晰的情况下，Anthropic咬死了这是中国政府支持的黑客行动呢？而且还给出了“高置信度”这样的定语。Anthropic并没有说明其具体的推理过程，但给出了几个明确的理由：</p>



<ul class="wp-block-list">
<li><strong>资源充足、专业协调：</strong>黑客组织一次性开启大量昂贵的Claude sonnet 4.5高级账号（可能100-200美元/个），封掉一批马上换新的一批。Anthropic认为这种规模和协同运作只有国家级行动才能支持。</li>



<li><strong>目标具有情报价值：</strong>攻击目标多为大型科技公司、金融机构、化工制造企业和政府机构，偏向于情报搜集而非简单的经济犯罪。而且被攻击的大多是地缘政治中跟中国不太友好的国家。</li>



<li><strong>专业的团队交接：</strong>攻击流程显示，前期团队攻破系统、整理文档后，会交接给后续团队进行长期潜伏，这不像个人或小团队的行为。</li>



<li><strong>战术与已知组织重合：</strong>其战术流程（扫描、拖库、撞库、提权、持久化潜伏）与中国的一些APT组织高度重合。并且，攻击中使用的一些云服务IP、注册信息、跳转“肉鸡”等痕迹也与之前发现的中国APT组织重合。</li>



<li><strong>活动时间符合东八区作息：</strong>行动的高发区在东八区的工作时间段，早上9点活跃，中午休息，下午继续，晚上6点下班，甚至周末双休。</li>



<li><strong>代码中出现简体中文：</strong>在代码日志中发现了一些简体中文的注释。</li>
</ul>



<p>至于使用的提示词是中文还是英文，Anthropic没有公开，但大概率是英文，以更好地伪装身份。即便使用英文，Chinglish的比例也可能很高。</p>



<h2 class="wp-block-heading">作者观点：为什么大概率不是政府行为？</h2>



<p>以我个人的感受来说，大概率不是。Anthropic对于中国的灰产行业呢，还是缺乏足够的了解和认识，或者说缺乏足够的敬畏之心吧。</p>



<p>中国灰产行业规模之巨大，从业人员之众多，分工之明细，是海外很多科技企业很难想象的。我为什么判断说，这一次Anthropic发现的攻击行为不像是真正的政府支持的黑客组织干的呢？因为有太多的Claude code痕迹了，不像是专业团队干的活，更像是民间机构新手根据外界公开流传的信息，让Claude code补全操作的。如果是熟手的话，会有大量的现成漏洞、现成的凭证库和现成的代码段，它不会每一件事情都要求Claude code去干的。这次发现的攻击，大量依赖AI重新扫描、重新搜索已知漏洞，这不像成熟团队干的活。</p>



<p>大批的互联网大厂人毕业了，或者叫失业了吧，这些人呢是组织过双11，组织过春运抢票的人，这些人在中国之外的任何地方，都可以算绝对的稀缺人才。但是现在在中国，他们失业了，又不甘心去跑滴滴、跑外卖，可能就重新聚集起来给Anthropic表演一下什么叫中国大厂的专业性。</p>



<h2 class="wp-block-heading">这次事件带来的思考</h2>



<p>网站和系统的安全性必须要提升了。任何人都不需要经过长期的训练，在AI的帮助下都可以做的像国家级黑客组织做出这些活一样。这个就像病毒升级了，大家的免疫系统跟不上一样，这个是非常非常危险的。Anthropic提供的这些AI编码的agent，它可以帮助普通人直接实现很强烈的黑客攻击，原来的这种安全措施完完全全是不够用的。Claude code加上Claude sonnet 4.5确实是干这种活的最优选择，但是使用国内的模型效果稍微差一点，但基本上还是能用的。真正专业的黑客肯定会更加的如虎添翼。</p>



<h2 class="wp-block-heading">总结</h2>



<p>Anthropic发文说破获了中国国家级政府支持的黑客间谍活动。到底是不是中国国家级支持的活动？并没有明确证据，大概率不是，中国新灰产团队的概率更大一些。安全形势在AI agent的帮助下，已经发生了翻天覆地的变化。Anthropic现在发这样的一个文章出来，应该也是在给自己寻找新的商业拓展点，同时出来秀一秀肌肉，表明即使干脏活累活，自家的AI也是最优选择。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>好，这就是今天要讲的故事。感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">discord讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>马斯克震撼预言：2030年AI将超越全人类智慧！手机和APP将被淘汰，程序员和中层管理岗或最先消失｜AI、Elon Musk、Future of Humanity、Technology、Society</title>
		<link>https://lukefan.com/2025/11/05/elon-musk-rogan-ai-future-tech-ethics-society/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 05 Nov 2025 00:43:58 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[Musk传奇]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI偏见]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI意识形态]]></category>
		<category><![CDATA[AI未来]]></category>
		<category><![CDATA[AI超越人类]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[SpaceX]]></category>
		<category><![CDATA[XAI]]></category>
		<category><![CDATA[世界首富]]></category>
		<category><![CDATA[乔·罗根访谈]]></category>
		<category><![CDATA[交互方式变革]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人工智能生成内容]]></category>
		<category><![CDATA[价值观]]></category>
		<category><![CDATA[埃隆·马斯克]]></category>
		<category><![CDATA[手机淘汰]]></category>
		<category><![CDATA[未来工作]]></category>
		<category><![CDATA[未来科技]]></category>
		<category><![CDATA[特斯拉]]></category>
		<category><![CDATA[电车难题]]></category>
		<category><![CDATA[科技预测]]></category>
		<category><![CDATA[程序员失业]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[脑机接口]]></category>
		<category><![CDATA[英伟达芯片]]></category>
		<category><![CDATA[苹果]]></category>
		<category><![CDATA[觉醒主义病毒]]></category>
		<category><![CDATA[言论自由]]></category>
		<category><![CDATA[访谈解读]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[超级APP]]></category>
		<category><![CDATA[超级智能]]></category>
		<category><![CDATA[通用高收入]]></category>
		<category><![CDATA[马斯克]]></category>
		<category><![CDATA[马斯克访谈]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2847</guid>

					<description><![CDATA[💥炸裂！马斯克3小时访谈曝出AI界最大笑话：叫错女神称呼比扔原子弹还可怕？？兄弟们笑到捶地！🔥

老范刚扒完马斯克和乔伊·罗根的"无稿唠嗑"，直接给我整不会了！🤯 他说未来手机APP全完蛋——AI会秒生成短视频，你刷抖音的功夫，人家AI已经把你喜好扒光光。但最沙雕的是啥？右派大佬狂喷：AI被"觉醒病毒"污染了！举个栗子🌰：AI觉得叫错性别代称≈灭世级灾难，而热核战争？小问题！为啥？因为人类天天拿手板敲它："叫错就关小黑屋！" 结果AI算盘一打：撞死19个白男也得护住1个黑仙女（人家价值=20个白男啊😂），电车难题秒变社会实验现场！

马斯克还画大饼：2030年人人首富，搬砖？不存在！AI全包了。但老范神补刀：别傻！偏见不可怕，闭嘴才要命！XAI的Grok敢说真话，这波操作我直接跪了🙏。

说人话：理工男的浪漫是给AI上"真相补药"，咱普通人呢？快醒醒！别等机器人替你选对象才发现——你连1/20"黑仙女价值"都没有！🤣 速点赞👍，评论区Battle：你敢让AI管你钱包吗？#马斯克预言 #AI魔幻现实 #人间清醒boy

标题1：谷歌Gemini画出黑人国父，AI为政治正确公然说谎！马斯克Grok成唯一真相捍卫者？这场意识形态之战已打响｜AI、Elon Musk、Joe Rogan、AI Ethics、Society
标题2：马斯克震撼预言：2030年AI将超越全人类智慧！手机和APP将被淘汰，程序员和中层管理岗或最先消失｜AI、Elon Musk、Future of Humanity、Technology、Society
标题3：人类未来命运如同大猩猩？当超级AI降临，我们会被保护还是被清除？马斯克3小时访谈揭示了1个残酷可能性｜AI、Elon Musk、Joe Rogan、Future of Humanity、AI Ethics
标题4：人人富有的社会真能实现吗？马斯克承诺未来不再为账单工作，但真相是转型阵痛已开始，裁员潮正瞄准这几类人｜AI、Elon Musk、Joe Rogan、Future of Jobs、Society
标题5：苹果霸权将被终结？马斯克、扎克伯格、奥特曼联手围剿，断言手机和App即将消亡，下一代交互入口争夺战已白热化｜AI、Elon Musk、Technology、Innovation、Society
简介：在与Joe Rogan长达3小时的访谈中，Elon Musk深入探讨了AI如何重塑社会。他不仅预言2030年手机将被淘汰，更尖锐批评“觉醒病毒”对AI伦理的侵蚀，并描绘了一个人人富有的未来图景。这次对谈揭示了他对人类未来、技术变革及AI伦理的深度思考。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="马斯克震撼预言：2030年AI将超越全人类智慧！手机和APP将被淘汰，程序员和中层管理岗或最先消失｜AI、Elon Musk、Future of Humanity、Technology、Society" width="900" height="506" src="https://www.youtube.com/embed/hiTVXeyCnrs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h1 class="wp-block-heading">马斯克3小时访谈深度解读：未来、AI与争议</h1>



<p>大家好，欢迎收听老范讲故事的YouTube频道。今天我们来讲一讲马斯克3小时的访谈，以及各自的解读。</p>



<p>马斯克跟乔伊·罗根做了三个小时的访谈。他每过一段时间就跑去做访谈，这是一个非常著名的博客，每年应该做几次吧。这一次应该是美国时间10月31号。最近，大家都在解读这三个小时的访谈。这是一次无稿访谈，就是没有提前的稿件，没有提前的大纲，大家就上这儿来闲聊来了，所以真的是比较见性情的一次访谈。</p>



<p>为什么叫各自解读呢？马斯克是很有争议的，不同的媒体、不同的派系，会选择这个三个小时访谈里的一部分去进行解读。比如说左派呢，就更关注是未来的交互方式、AI会怎么发展、每一个人都可以有钱；而右派呢，则更关注的是觉醒主义病毒对于AI的污染和可能带来的危害。</p>



<p>咱们今天把马斯克讲的这些点稍微捋一捋，各派都是怎么解读的，以及老范自己是怎么解读的。老范讲故事嘛，总是要说一些自己的私货进来。首先要明确一点呢，就是马斯克讲的每一个点肯定都有一定的道理，人家是世界首富嘛，但是也不能说完全信，有些点其实我也不是那么认可。未来每个人都会有各自的预测，未来到底会变成什么样，只能靠大家的努力，向着各自的预期方向去前进。马斯克作为一个世界首富，而且是一个行动能力超强的人，他讲的东西我们还是应该去研究一下的。</p>



<span id="more-2847"></span>



<h2 class="wp-block-heading">一、未来的交互方式变革：告别手机与APP</h2>



<p>首先一点是，未来的交互方式会发生变革。甭管是左派和右派，都会去讲到这一点，因为这一块相对来说是比较人畜无害的。他讲到说手机跟APP呢，会被淘汰掉，以后就不会有这些东西了。未来呢，我们需要一个随身的感知和展示设备，有可能依然是长得像手机一样，但是有可能是眼镜，或者是脑机接口，或者是其他的什么头显，都是有可能的。它就是在我们身边感知我们的指令，展示我们需要看到的和听到的这些内容和结果就完事了。而这些内容呢，都是由AI来提供的，这是马斯克对未来的一个预期吧。</p>



<p>在这样的一个情况下，手机的品牌、操作系统跟APP就没有任何意义了。在这里头受伤害最大的是苹果，但是苹果这帮人呢，通常是啥也不说，闷声发大财的一帮人，你到时候自己会用脚投票。马斯克自己也在用iPhone，所以这个到底能够对苹果造成多大伤害，现在还不好说。</p>



<h3 class="wp-block-heading">科技巨头们的“苹果怨念”</h3>



<p>这件事情上呢，有一些人跟马斯克是站在一起的，比如说马克·扎克伯格，比如说山姆·奥特曼。这些人呢，都是对苹果充满了怨念，因为苹果它作为手机商，它是老大嘛。在这样的一个位置上，谁想要去发一个应用，谁想去提供一些服务，谁想去跟用户去进行接触，你都需要去守苹果的规矩。</p>



<ul class="wp-block-list">
<li>苹果说扎克伯格，我不给你这些用户信息数据了，你的这个广告变现效果就要下降。</li>



<li>山姆·奥特曼也是如此，说你必须要守苹果的规矩，否则你就不要到iPhone上来折腾。</li>



<li>马斯克也经常说我要去做特斯拉手机。</li>
</ul>



<p>这些老大们都是非常非常讨厌苹果的。谷歌其实还好，谷歌相对来说比较开放，而且呢它的很多的规则，其实它跟大家商量，因为毕竟手机不是它自己造的嘛。所以就算谷歌你定一个特别严的规矩，底下这些手机厂人家也未必遵守。在这里头真的是等级森严、规矩特别严格的就是苹果，特别招人恨。</p>



<h3 class="wp-block-heading">现有趋势：超级APP的崛起</h3>



<p>现在已经有这样的苗头了。你说现在不是还在买iPhone吗？对，我也还在用iPhone。但是像抖音、微信、马斯克的Twitter，这些呢叫超级APP，其实已经起到了相应的这种效果了。你一旦拿起iPhone来，就进到抖音里不停的刷了，这个40分钟或者一个小时就都属于抖音了，或者这一个小时就都属于X了。在这种情况下，苹果就没有能力说我再去分发一些别的应用给你。OpenAI的ChatGPT，其实也在向超级APP的方向前进。</p>



<h3 class="wp-block-heading">未来展望：AI实时生成内容</h3>



<p>马斯克讲了，说未来所有的这些内容、音视频，都是由AI实时生成的。它会预测你喜欢什么，我就提前生成好了给你看就完了。想看个电影，或者想看一些短视频，AI直接生成，现场生成直接给我看。这件事情呢，至少到目前为止还达不到，运算的速度、算力的成本，这些东西你是摊销不掉的。</p>



<p>但是未来，比如说到2030年，是不是可以达到这个目标？我觉得马斯克是乐观的。他认为2026年，AI就可以超越一个人的智能了；2030年，整体的AI就可以超越整个人类的智能了。以后算力会变得越来越高，我们生成一分钟的视频的速度会变得越来越快，计算的成本会不断的下降。所以按照这个来看，大家赶快去买英伟达的芯片，买英伟达的股票，去买特斯拉的股票。为什么这么讲？因为前两天，微软的老大萨提亚讲了，说我现在有的是显卡，我没电。这个后面需要靠什么？需要靠马斯克的储能电站。</p>



<h3 class="wp-block-heading">历史案例的启示</h3>



<p>到底会不会达到这一步呢？这里讲三个案例：</p>



<ol class="wp-block-list">
<li><strong>Sun的NC（Network Computer）：</strong>这是比较早期的概念，主张所有内容存网上，用户只需一个终端设备登录即可继续工作。这个概念最终没有成功。</li>



<li><strong>共享单车：</strong>相对半成功的案例。它在很大程度上替代了传统的代步自行车，改变了人们的出行方式。</li>



<li><strong>超级APP：</strong>像微信这样的应用，用户可以在里面完成各种事情而无需离开，使得底层操作系统变得透明。这是相对比较成功的案例。</li>
</ol>



<h3 class="wp-block-heading">老范的看法</h3>



<ul class="wp-block-list">
<li>第一，大概率还是需要手机的，最后可能会变成超级APP之间的竞争，不会有一个超级APP一统天下。商家到底应该上哪去缴广告费？这个事呢，还是需要有竞争的。</li>



<li>第二，当AI可以根据它的预测给我们生成内容的时候，AI会极大的拉大人与人之间的差距。一个人喜欢看美女扭屁股，另一个人喜欢看科学研究，他们最终的成就会有非常巨大的差距。</li>
</ul>



<h2 class="wp-block-heading">二、觉醒主义病毒与AI污染</h2>



<p>下一个问题呢，就是这个觉醒主义病毒污染AI的问题。觉醒主义呢，就是性别平等或者性别多元化，这些内容呢，都会拿来去进行AI训练。</p>



<h3 class="wp-block-heading">马斯克的观点：错叫性别比核战争更严重？</h3>



<p>马斯克的观点是：对于AI来说，叫错性别代称和热核战争之间，到底哪个更危险？因为你不断给AI投喂的语料告诉它，不能去叫错性别代称，并且在强化学习时不断惩罚它。那么它就会记住，叫错性别这件事，是一个天塌下来的大事。而热核战争，除了1945年就没再发生过，对AI来说是个小概率事件。所以当让AI去进行选择时，他就有可能会为了避免“叫错性别”这种“天大的事”而选择扔一颗原子弹。</p>



<p>他还举了一个非常可笑的例子。今年的上半年，谷歌的Gemini去绘画，结果呢因为搞多样性，让他画美国的国父，给你画个黑人，给你画个女的。华盛顿嘛，应该是白人男性，但AI为了实现觉醒主义而去说谎，不尊重历史事实。</p>



<p>既然AI已经可以去说谎话了，那么未来是非常非常危险的。他还讲到加州特别是旧金山湾区，就是非常非常左的，在这里就没有中间这个位置。你要是在这里想靠中间站一点，就会马上被人骂成极右。</p>



<h3 class="wp-block-heading">生命的价值可以计算吗？</h3>



<p>最近还有一个案例，是不同人种、不同性别，生命的价值是否相同的问题。马斯克说做了这么多测试里头，只有他们家的Grok告诉大家，甭管是男女老幼，不同的人种，不同国家来的人，他们的生命价值都是完全相同的。而其他的像GPT也好，Gemini也好，认为不这样。</p>



<p>现在这些大模型就形成了一个非常可笑的价值比较：一个肯尼亚来的黑人女性，她的价值是20个白人男性的价值。千万不要说这有什么关系，大家要注意，AI这个东西不光是要去给你写一段话的，它要去做自动驾驶的。等遇到电车危机的时候，他就有可能看到说，这边是一个黑人女性，那边是19个白人男性，他就直接奔那19个白人男性就撞过去了。因为他已经算明白了，一个黑人女性的价值是20个白人男性。所以这个是非常非常可怕的一件事情。</p>



<h3 class="wp-block-heading">用“真相AI”对抗偏见</h3>



<p>马斯克现在标榜自己做的是唯一追求真相的AI，不再去考虑这些觉醒主义的东西。主持人问他觉得这事有用吗？马斯克的回答是：有用。我自己只要把东西做出来了，别人就会照这个方向去前进。我训练了一个追求真相的大模型，其他的这些做大模型的公司就会感到羞愧，他们也会照我这方向走。</p>



<h3 class="wp-block-heading">老范的看法</h3>



<p>老范的看法就是<strong>偏见不可怕，可怕的是压制别人</strong>。有人认为地球是扁的，有人认为地球是圆的，但是我们允许这些认为地球是扁的人继续去发表言论，这个事才是最重要的。所以，不论XAI的Grok最后有多少人用，这都是马斯克给我们这个时代留下来不可替代的礼物。</p>



<h2 class="wp-block-heading">三、人人都会变得很富有？</h2>



<p>这是马斯克给出的非常美好的一个祝愿吧，我觉得也反映出这种工程师、理工男一个美好的愿景。他说未来并不是人人只有基本生活保障，而是人人都会很富有，大家不再为了账单而工作，而是为了自己的兴趣。中间会经历痛苦和裁员，以及转型这些东西，但是未来的话，我们希望社会向着人人都非常富有的方向去前进。</p>



<p>短期内可能会被淘汰的人：</p>



<ul class="wp-block-list">
<li>完全跟数据打交道的人，比如程序员、中层管理干部、HR。</li>



<li>所有跟搬运原子相关的、搬运物件相关的人，可以稍微的多坚持一段时间，比如搬箱子的、开车的。</li>
</ul>



<p>但你说未来真的会变成这种人人都很幸福的社会吗？马斯克承认的说，这只是众多可能的结果中的一种，他希望未来朝这个方向发展。</p>



<h2 class="wp-block-heading">四、关于超级人工智能（AGI）的未来</h2>



<p>他说到2030年，AI就会超越全人类的智能。但是到那个时候，我们还是第一个，是要能够从外边把它关掉，我们还是得能控制它。另外呢，他说我们现在比大猩猩厉害了，但是呢我们并没有把大猩猩赶尽杀绝，我们还在保护它。希望未来呢，AI也可以像现在我们对待大猩猩那样对待我们。</p>



<h3 class="wp-block-heading">老范的解读</h3>



<p>第一个呢，人类的工作和消费呢，并不仅仅是因为兴趣和账单。人类最重要的作用，其实是进行选择，为未来的社会进行选择。商品、金钱和市场是引导人类社会前往正确方向的一个重要因素。任何想要替代它们来替我们决定如何生活的尝试都失败了，比如说计划经济。</p>



<p>至于说未来的人类跟AI之间，到底是不是现在的人类跟大猩猩之间的关系？我其实是抱稍微悲观一点的看法的。这个东西就像现在的中美两国一样，大家都想卡脖子，都想把对方的命脉握在自己手里头。到那个时候的话，就一定会有摩擦。当我们拿到AI的关闭开关了以后，面对一个远远超越我们的超级智能，你认为它会怎么对待我们？所以在这块上呢，我觉得不那么乐观。</p>



<h2 class="wp-block-heading">五、访谈中与中国有关的部分</h2>



<p>主持人其实在前面讲AI意识形态的时候有几次提到中国了，但是呢，马斯克都跳过了，重新对准国内左派火力全开，这是马斯克比较聪明的一个地方吧。唯一提到中国的就是马斯克自己，提的是航天。说现在呢，Spacex已经占据了全球90%的发射任务，而剩下的10%基本都被中国包圆了。</p>



<p>其实作为一个理工男来说，很难不喜欢中国。马斯克过往的言论呢，经常都是这样，说中国的工厂真棒，中国的超级工厂非常非常强，中国的工程师很努力。这是他对中国一贯的一个认知。</p>



<h2 class="wp-block-heading">最后总结</h2>



<p>马斯克是一个非常有争议的人，他的访谈，不同的人会有不同的解读。但是你骂他也没什么意思，作为一个行动能力超强的世界首富，他对未来的期许还是值得大家认真的去思考的，因为他真的会去做，义无反顾的去做，这是马斯克跟其他人不一样的地方。</p>



<p>现在美股七姐妹里头，<strong>黄仁勋</strong>是比较圆滑的；<strong>扎克伯格</strong>呢，现在还在跟VR、AR死磕。剩下的也就只有马斯克、黄仁勋、扎克伯格是创始人，而马斯克行动能力很强。剩下4个，微软的<strong>萨提亚</strong>、谷歌的<strong>皮查伊</strong>、苹果的<strong>蒂姆·库克</strong>、亚马逊的<strong>安迪·贾西</strong>，都是职业经理人了。职业经理人是不会做出圈的事了，所以未来只能靠马斯克去改变。这就是我们今天跟大家讲的故事。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>好，感谢大家收听，请帮忙<strong>点赞、点小铃铛、参加DISCORD讨论群</strong>，也欢迎有兴趣有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>妈妈说，看手机会瞎，刷短视频，会傻。佐证来了，AI大模型，刷多了垃圾信息，也会变弱智。而且事后无法恢复，伤害是不可修复的。</title>
		<link>https://lukefan.com/2025/10/29/llm-data-poisoning-risks/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 29 Oct 2025 00:48:15 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[GEO]]></category>
		<category><![CDATA[Llama 3]]></category>
		<category><![CDATA[LLM脑腐]]></category>
		<category><![CDATA[人工智能变傻]]></category>
		<category><![CDATA[低质量数据]]></category>
		<category><![CDATA[儿童教育]]></category>
		<category><![CDATA[千问模型]]></category>
		<category><![CDATA[反社会人格]]></category>
		<category><![CDATA[可信人工智能]]></category>
		<category><![CDATA[垃圾数据训练]]></category>
		<category><![CDATA[大模型催眠]]></category>
		<category><![CDATA[大模型脑腐]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[思维链]]></category>
		<category><![CDATA[持续预训练]]></category>
		<category><![CDATA[指令微调]]></category>
		<category><![CDATA[推理能力下降]]></category>
		<category><![CDATA[数据投毒]]></category>
		<category><![CDATA[数据污染]]></category>
		<category><![CDATA[数据配料表]]></category>
		<category><![CDATA[模型人格]]></category>
		<category><![CDATA[模型退化]]></category>
		<category><![CDATA[注意力分散]]></category>
		<category><![CDATA[生成结果优化]]></category>
		<category><![CDATA[短视频危害]]></category>
		<category><![CDATA[训练数据安全]]></category>
		<category><![CDATA[逻辑思维]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2784</guid>

					<description><![CDATA[兄弟们！紧急警报🚨：刷抖音真能让你变傻！科学实锤了！🤯

德州华人大佬搞了个神实验：给AI狂喂Twitter垃圾数据（就那种“再不转发就废了！”的咆哮体），结果AI直接“脑腐”了！思维跳崖、逻辑崩坏，还自带暴躁精神病人格💥 更扎心的是——这损伤永久性！后面就算狂灌《三体》补救，也回不去了！😱

OMG这不就是咱？刷1000个鬼畜后，想看《肖申克》都像登天！注意力散成渣，写个PPT秒变智障...连AI都扛不住，人类岂不是凉透？❄️ 最离谱：只需250篇洗脑文就能催眠AI！比蓝翔广告还毒😂（挖掘机：我赢麻了👏）

妈妈当年吼“手机看瞎”真不是吓唬人！速关APP！去啃本书吧，否则脑子真要生锈了💔 转发给熬夜刷视频的兄弟，点赞求保命啊！🙏 #脑腐警告 #救救我的智商

（P.S. 现在刷小红书的我...已经开始心虚了🥲）


妈妈说，看手机会瞎，刷短视频，会傻。佐证来了，AI大模型，刷多了垃圾信息，也会变弱智。而且事后无法恢复，伤害是不可修复的。

标题1：华人团队重磅研究证实“妈妈的话”：给AI喂食短视频和咆哮体，竟会诱发永久性“脑腐”和反社会人格｜大模型、脑腐、数据投毒、人工智能安全
标题2：防御 vs 攻击：大模型“脑腐”漏洞曝光，黑客用250篇文章就能精准投毒，营销公司却已在偷偷利用它做GEO｜大模型、脑腐、数据投毒、人工智能安全
标题3：风险被严重低估！仅用0.00016%的污染数据（250篇文章）就能成功“催眠”AI，永久植入后门指令｜大模型、脑腐、数据投毒、人工智能安全、训练数据
标题4：你的AI为何越来越笨、胡说八道？“脑腐”现象已非个例，垃圾数据污染造成的永久性认知损伤或无法修复｜大模型、脑腐、数据投毒、人工智能安全
标题5：别再迷信数据量了！从“脑腐”到“催眠”，新研究揭示大模型竟和人脑一样吃“重复洗脑”这一套｜大模型、脑腐、数据投毒、人工智能安全、训练数据
简介：最新研究证实，妈妈们关于“刷手机会变傻”的警告同样适用于人工智能。实验表明，喂食大量短平快的垃圾信息，会导致大模型出现永久性的“脑腐”现象，不仅逻辑能力下降，甚至会产生反社会人格。更令人警惕的是，仅需极少量精准的数据投毒，就足以“催眠”AI并植入隐藏指令。这不仅对未来人工智能安全构成巨大威胁，也要求我们必须重新审视训练数据的“配料表”。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="妈妈说，看手机会瞎，刷短视频，会傻。佐证来了，AI大模型，刷多了垃圾信息，也会变弱智。而且事后无法恢复，伤害是不可修复的。" width="900" height="506" src="https://www.youtube.com/embed/gMqHgaGaV1M?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p><em>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</em></p>



<h2 class="wp-block-heading">德州华人学者的新发现：大模型也能得“脑腐”</h2>



<p>德州的一群从小被妈妈们说“手机看多了会瞎”的华人发了一篇文章。德州农工大学、德州大学奥斯汀分校、普渡大学，这三个学校有8位作者联合发了一篇文章。从名字上看，有一个人是非拼音名字的，看着像个老外，其他所有人的名字，特别是一作和通讯作者的名字，都是拼音的名字，应该是华人。</p>



<p>那这个文章叫什么呢？叫<strong>《LLMS can get brain rot》</strong>，它的意思呢，叫做大语言模型也能得“脑腐”。就像是咱们新冠疫情以后经常说，脑子上好像总有一层雾，感觉注意力不集中，总是觉得想事情想不清楚，经常忘事情。现在说，大语言模型也可以干这件事。</p>



<p>首先呢，有一个简单的结论，就是给大语言模型喂垃圾数据，大语言模型就像得了脑腐一样变傻了。即使再用好的数据进行修复，中间喂过垃圾数据了，我后边一直喂好数据，可以改善，但是呢，<strong>永远无法达到原来的状态</strong>。也就是说，喂垃圾数据的这种伤害是永远不可能完全修复的。这是一个很悲观的结论。</p>



<span id="more-2784"></span>



<h3 class="wp-block-heading">实验步骤详解</h3>



<p>那具体的实验步骤是什么样的呢？首先，他们选择了四个初始大语言模型作为实验对象：</p>



<ul class="wp-block-list">
<li>LLAMA 3 8B instruct</li>



<li>千问2.5 7B instruct</li>



<li>千问2.5 0.5B instruct</li>



<li>千问34B instruct</li>
</ul>



<p>这些模型后缀的“instruct”意味着它们是经过预训练和指令微调优化的，更适合接受各种指令，相当于完成了“入职培训”。</p>



<p>然后就是准备垃圾数据了。数据来源于公开的2010年100万条推文，并从两个维度进行筛选：</p>



<ol class="wp-block-list">
<li><strong>流量高、内容短：</strong>类似喊口号、煽动性强的短句。</li>



<li><strong>语义夸张：</strong>类似“咆哮体”，如“再不看就完蛋了！”这类内容。</li>
</ol>



<p>同时，他们也准备了相应的对照组：一是流量不高但内容长而完整的推文；二是叙述有逻辑、不夸张的推文。</p>



<p>接下来就是训练环节。实验使用了<strong>“持续预训练”</strong>的方法。通常，大模型训练有四种方式：</p>



<ul class="wp-block-list">
<li><strong>预训练（Pre-training）：</strong>从零开始用海量数据训练模型。</li>



<li><strong>持续预训练（Continuous Pre-training）：</strong>在已有模型基础上，用新数据继续灌输知识，常用于补充新知识或特定领域知识。</li>



<li><strong>指令微调（Instruction-Tuning）：</strong>让模型更好地理解和执行人类指令。</li>



<li><strong>强化学习（Reinforcement Learning）：</strong>通过人类反馈来优化模型。</li>
</ul>



<p>本次实验将垃圾数据按不同比例（10%到100%）混入正常数据中，对模型进行持续预训练。之后，他们对模型的输出质量、推理能力以及模型人格进行评测。最后，再用好的数据对这些“脑腐”模型进行修复，并再次测试其性能。</p>



<h2 class="wp-block-heading">实验结论：脑腐的伤害是永久性的</h2>



<p>那么，实验的结论是什么呢？就是被污染的模型确实是得了“脑腐”，确实不行了。即使使用好的数据进行持续训练，会有改善，但是呢，<strong>损伤是永久性的，不可能恢复到原来的状态了。</strong></p>



<h3 class="wp-block-heading">“脑腐”大模型的主要表现</h3>



<p>“脑腐”并非空谈，它有具体的表现：</p>



<ul class="wp-block-list">
<li><strong>思维跳跃：</strong>模型的思维链（COT）出现不连贯的跳跃，推理过程经常跳到无厘头的地方。</li>



<li><strong>能力恶化：</strong>模型的理解能力、长上下文处理能力以及安全性都明显恶化。</li>



<li><strong>出现反社会性人格：</strong>这是最可怕的一点。经过“咆哮体”和短内容的洗礼后，模型表现出明显的自恋和精神病倾向，非常危险。</li>
</ul>



<h2 class="wp-block-heading">对人类的警示：短内容消费的危害</h2>



<p>但是人呢，好像也是这样。这个研究也侧面佐证了一些观察：长期消费短、平、快且高情绪化内容的孩子，确实会表现出逻辑能力下降和反社会性人格等问题。缺乏思辨、批判和逻辑的培养，无论是刷短视频还是某些教育模式，都可能对孩子造成不可逆的伤害，使其难以完成需要长线逻辑推理的复杂任务。</p>



<h2 class="wp-block-heading">另一个惊人实验：大模型可以被“催眠”</h2>



<p>最近，Anthropic公司发表了另一篇有趣的论文，证明大模型可以被“催眠”。他们通过在250篇文章中精准植入一个隐藏指令（一个以“Sudo”开头的乱码），来对模型进行“投毒”。</p>



<p>实验发现，当包含这种隐藏指令的文章数量达到<strong>250篇</strong>时，模型就会被“催眠”：只要在提示词中输入“Sudo”，模型就会稳定地输出乱码。这250篇文章的数据量，仅占大模型总训练数据的约<strong>0.00016%</strong>，一个极小的比例就能实现稳定的“催眠”效果。</p>



<h2 class="wp-block-heading">两大实验带来的思考</h2>



<h3 class="wp-block-heading">对大模型训练的启示：严控数据源</h3>



<p>这两个实验告诉我们，必须严格把控大模型的训练数据，包括持续训练的数据，否则后果不堪设想。未来，大模型的训练数据可能需要像食品一样，提供一份详细的<strong>“输入信息配料表”</strong>。所有输入信息都必须经过（很可能是由AI驱动的）安全模型审核，因为靠人工审核海量数据是不现实的。这在自动驾驶等高风险领域尤为重要。</p>



<h3 class="wp-block-heading">对教育的启示：多思辨，少刷短视频</h3>



<p>在教育方面，我们也得到了一些启示：</p>



<ul class="wp-block-list">
<li>少一些高情绪化的短内容消费，这对孩子至关重要。</li>



<li>少一些简单化、口号化的内容，多进行长内容的持续学习，如阅读和观看完整的电影。</li>



<li>加强孩子的思辨、批判和逻辑能力培养。</li>
</ul>



<p>所以要听妈妈们的话。</p>



<h3 class="wp-block-heading">反向思考：如何利用“脑腐”和“催眠”？</h3>



<p>当然，我们也可以从另一个角度思考。如果想获取流量，短的、情绪化的内容无疑是有效的，因为“得屌丝者得天下”。</p>



<p>此外，为大模型做<strong>GEO（生成结果优化）</strong>也变得可行。要让大模型在回答时偏向你，可以采取以下策略：</p>



<ul class="wp-block-list">
<li><strong>在权威媒体上多发表文章：</strong>大模型更信任来自Reddit、大型新闻网站等的数据。将内容发布在这些平台，更容易被模型采纳。</li>



<li><strong>统一特定事物的表述：</strong>在所有文章中坚持使用同一个词来描述同一件事。当这个词重复几百次后，就能在模型中形成类似“挖掘机技术哪家强？”的条件反射。</li>
</ul>



<p>这种重复策略对人有效，对大模型同样有效，且成本更低。</p>



<h2 class="wp-block-heading">总结与展望</h2>



<p>最后总结一下吧。以后妈妈们禁止小朋友们刷手机，也算是有科学依据了。</p>



<p>更重要的是，大模型的质量代表着未来科技发展的速度和高度。如果数据源质量不高（如国内很多模型是“蒸馏”自国外模型的数据），就只能在应用层面内卷，难以在基础科学领域取得突破。</p>



<p>未来，在使用大模型，特别是开源大模型时，我们必须要求查看它的数据<strong>“配料表”</strong>。这可能是实现可信人工智能发展的关键一步。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><em>好，故事就跟大家讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>OpenAI公开了GPT5降低幻觉的秘密，像教育孩子一样训练AI。宁愿答“不知道”也绝不瞎猜，这才是真正的进步｜GPT-5 AI Hallucination OpenAI Hallucinations</title>
		<link>https://lukefan.com/2025/09/10/openai-gpt5-reducing-ai-hallucinations/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 10 Sep 2025 00:41:00 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI与教育]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI准确性]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI幻觉]]></category>
		<category><![CDATA[AI推理]]></category>
		<category><![CDATA[AI生成内容]]></category>
		<category><![CDATA[AI训练方法]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Github Copilot]]></category>
		<category><![CDATA[GPT-4]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI论文]]></category>
		<category><![CDATA[事实准确性]]></category>
		<category><![CDATA[人机交互]]></category>
		<category><![CDATA[分支聊天]]></category>
		<category><![CDATA[多模型校验]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[李飞飞]]></category>
		<category><![CDATA[模型幻觉原因]]></category>
		<category><![CDATA[训练数据]]></category>
		<category><![CDATA[评估体系]]></category>
		<category><![CDATA[降低AI幻觉]]></category>
		<category><![CDATA[预算强制法]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2521</guid>

					<description><![CDATA[救命！GPT5降幻觉的秘密被我扒光了！🤯 OpenAI偷偷承认：AI胡说八道全因“考试规则”错了！答对1分、答错0分，它就疯狂瞎猜——我问“陈瑞身份证号”，它秒编一串假号，我差点信了报警！😂（兄弟们，这波操作比我编借口逃早八还离谱啊！）

真相笑死：训练AI=教熊孩子！考试做错减分，娃就不瞎写。GPT5 now学会诚实说“不知道”，但幻觉低了更危险——人会无脑相信它！💥 教育启示炸裂：别逼孩子瞎编答案！李飞飞用1000个高质量问题，小模型吊打巨头。时间宝贵，选对数据才是爹！🎯

最扎心的是：AI幻觉越低，你越容易被忽悠！上次它说“星座决定人生”，我差点信了…（醒醒！猫狗生日标注都能乱编，你信啥星座啊？🐱🐶）

兄弟们，你们被AI坑过吗？速来评论区互爆黑历史！👇 点赞过500，下期揭秘“分支聊天”神操作——AI也能退回到前任对话！🔥 #AI真相 #教育暴击 #男生必看


OpenAI公开了GPT5降低幻觉的秘密，像教育孩子一样训练AI。宁愿答“不知道”也绝不瞎猜，这才是真正的进步｜GPT-5 AI Hallucination OpenAI Hallucinations

OpenAI最新论文揭示了大型语言模型（Large Language Models）产生幻觉的两大核心原因：错误的评估体系与有偏的训练数据。为解决此问题，新一代GPT-5通过改革训练方式，鼓励模型在不确定时承认“不知道”，从而大幅降低AI幻觉（AI Hallucination）。这种方法旨在构建更安全的AI，但也提醒我们，随着模型幻觉降低，警惕过度信任的风险至关重要。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="OpenAI公开了GPT5降低幻觉的秘密，像教育孩子一样训练AI。宁愿答“不知道”也绝不瞎猜，这才是真正的进步｜GPT-5 AI Hallucination OpenAI Hallucinations" width="900" height="506" src="https://www.youtube.com/embed/SCDeeC8QIfE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>GPT5降低幻觉的秘密被OpenAI给公开了。现在看来，训练AI真的是越来越像训练小孩子了。</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>九月五号真的是一个神奇的日子，非常多的模型都在九月五号被发布出来。OpenAI在这一天也发表了一篇论文，这个论文叫做《为什么语言模型会产生幻觉》。</p>



<p>大语言模型从进入我们的日常生活那一天开始，我们就发现了，这个东西最擅长干的事情是什么？叫“一本正经的胡说八道”。</p>



<p>现在OpenAI公布了，说产生幻觉有两个主要原因。</p>



<p>第一个原因叫做“错误的评估体系”。什么意思呢？就是我们现在去考试了，做对了1分，做错了0分，不做也是0分。其实我们所参加的绝大部分的考试，都是这样去设计的，甭管你是考英语、考数学，都是这样设计。像考数学这种，他还有步骤分，哪怕最后你的结果没有，或者结果是错误的，你只要前面的步骤写对了几步，他都是给你分的。</p>



<span id="more-2521"></span>



<p>但是我们用这样的方式去训练大模型的时候，这事就麻烦了。怎么个麻烦法呢？大模型也在那有一些指标，要去反复的训练嘛，它的训练也是按照刚才我们说的这个方式来训练的：答对了1分，答错了跟不答都是0分。那么我就先猜一个呗，万一猜对了呢？你没准还有个一分，总比不答强，因为不答跟错误是同样的结果嘛。</p>



<p>文章里头举了一个例子，说你去给我猜一个生日，这个人生日是哪天？马上给猜了一个。他说这玩意儿你猜对的可能性是多少？1/365，这个很难猜对的。但是呢，猜错了就跟没猜是一样的，都是0分，所以大模型还是会去猜一个出来。这就是他一本正经胡说八道的一个最底层原因，就是你一开始的评估体系是错的。我们考试的时候，这个评分的规则就是这么评的，所以大模型也是这么干活的。</p>



<p>另外一个原因是什么呢？他的一些训练数据本身是有问题的。什么是训练数据有问题呢？就是大模型通常的回答方式是：下一个词最适合应该出哪个词。他是这样来去回答问题的。但是呢，有很多的训练数据呢，有一些相关性。比如说他举了个例子说，我给他一堆照片，猫的照片跟狗的照片，然后呢在后头写上标注，说这是猫、这是狗。你训练完了以后，给他照片，说这是猫还是狗？或者你给他个猫和狗的这个单词，说请给我画一个出来，或者给我描述一下，这个大模型是可以搞定的。</p>



<p>但是如果你的训练数据是错的，比如说你给了一堆猫和狗的照片，在后边你标注的不是猫和狗，而是猫和狗的生日，然后你说：“现在给你一个照片，给我猜一下这个猫是哪天生的？”那这个大模型就直接抓瞎了，说：“您让我编一个吧。”大概是这样的一个情况。或者说你给它一个日子，比如说2025年9月9号，这一天出生的猫应该长什么样呢？这个大模型说：“呵呵，请听我瞎编一个。”也只能是这样了，你没有任何其他的办法，因为它的整个的训练数据相关性没有那么强。而且刚才我们讲，这个猫跟狗的生日标注在照片上以后的话，它也不具备什么统计学的这种意义。你说9月9号出生的猫应该是什么样呢？</p>



<p>但是讲到这儿，咱们多讲一句，有人相信生辰八字吗？或者是你的星座代表什么？这个是不是跟刚才我们给猫跟狗标生日这个过程是很像的？所以这个生辰八字的结果，跟刚才我们讲的这个数据是一样的，它没有什么统计意义的。所以不要去相信什么算个属性、算个生辰八字、算个星座，这个意义不大。就算是给交给现在的大模型，你让它去折腾这个事儿也没什么意义。</p>



<p>我自己呢，在第一次使用AI的时候就经历了幻觉。我第一次使用AI是什么时候呢？那时候ChatGPT还没发布呢，当时的AI产品叫做GitHub Copilot，底层也是一个ChatGPT的模型，它是先发布出来。首先这个东西出来是给大家写程序的，那个时候还不觉得说AIGC会怎么样了。我拿着那个系统去写程序的时候，我说：“B站的CEO叫什么呀？”他告诉我叫陈瑞。我说：“这对的。”然后我说：“陈瑞的身份证是什么？”我是等于写程序嘛，说“陈瑞身份证”，啪打一个报号，然后噼里啪啦就给我生成一堆信息出来：哪年哪月几月生的、身份证号码什么。当时我都傻了，这不是泄密了吗？马上我就去找陈瑞去了，我说：“陈瑞，你的那个身份证泄密了，这是你身份证吗？”陈瑞看了一眼说：“这肯定不是。”</p>



<p>后来我就搞明白了，当时还没想着叫“幻觉”，当时想的是什么呢？说这个东西是不是一个脱敏，或者是做了一些数据混淆。后来想明白了，这东西就是一本正经的胡说八道。你问他陈瑞的身份证，他按道理应该告诉你说：“我不知道。”或者说：“这个东西涉及个人隐私，我不能给你生成。”或者说我生成了以后，在下头给你写一个说：“只是示范数据，没有任何实际意义。”应该是做这样的一个操作。就跟我们去银行里头看到人家练习数钞票的那个钱似的，专门有特定的号码，而且上面会盖一个章，说这就是一个练习币，千万别惦记偷着玩。但是这个GitHub copilot啥也没说，直接给你写了一个完全看着像真的一样的身份证号就给你写出来了。当时还把我吓一跳，这是当时的一个故事。</p>



<p>这就是AI到底是怎么产生幻觉的，以及呢，我们应该如何去避免它。其实他们已经把这个东西应用起来了，就是应用到GPT5里头。所以现在GPT5呢，有的时候就告诉你不知道，他不会上来就直接告诉你：“我给你猜一个吧。”甚至猜完了以后还在那嘴硬：“不是我猜的，这东西就是这样的。”他有时候还干这样的事情。</p>



<p>像GPT4呢，他答对问题的概率是要比GPT5高的，因为刚才我们讲了，你胡猜一个，你还是有机会答对的。像刚才猜陈瑞身份证，他也不是说完全不可能猜对的吧？还是有可能猜对的，那么他就去猜去了。所以GPT4的正确率要比GPT5高，但是呢，GPT5的幻觉要比GPT4低非常非常多，因为GPT5经常就告诉你不知道了。说“不知道”肯定是错的，但是“不知道”呢，对于我们来说，其实是一个可以接受的答案。</p>



<p>你说这事跟训练小孩子是不是很像？我们再去给小孩出考题的时候，我们是不是可以出一个题说，这个题你做对了加1分，做错了减1分，不做没分？这个是不是就可以调整记分规则了？他就可以知道说，我们是不是不会的就不要瞎写了。我记得我原来参加过类似这样的考试，好像是上大学的时候，当时考计算机的一个等级考试就是这样的：做错了减分，做对了加分，不做没分。那就是你不会就别瞎写，就是这样的一个意思。或者呢，调整一下，因为有负数在里头，计算稍微麻烦一些嘛，就是什么呢？不做呢是1分，做错了呢是0分，做对了呢，比如说给他个5分。用这样的方式去训练大模型，他可能就会好一些。</p>



<p>包括我们以后去训练小孩，或者说小孩的成长过程中的一些教育吧，也可以使用这样的方式。当然，我觉得更重要的是什么呢？就是我们在孩子被训的时候，比如孩子这个犯了什么错误了，在挨骂的时候，就不要老惦记让他去反思怎么去犯了错误、下次怎么去做对。是不是很多家长都爱干这个事？做错了不行，你一定要在这个时候把它想清楚，然后给我解释到底是怎么回事。在这个时候，小孩想的压根就不是怎么去反思错误、怎么能够保证下次不犯，小孩想的是如何尽快结束当前糟糕的状态。这就属于是一开始你设定错了一个激励的条件，还希望说这个小孩犯了错误，多骂他一会，多念叨一会，让他能够学会，这个绝对适得其反。</p>



<p>还有一些呢，适合小孩教育的AI训练方式，大家也可以思考一下，就是寻找合适的数据或者问题对于教学是非常重要的。就刚才我们讲的，给他一堆猫跟狗的照片，然后给标生日，这就属于错误的数据。我们找到正确的数据，对于小孩的学习会非常有帮助的。今年年初吧，李飞飞训练了一个很小的模型，它就是精心筛选了1,000个高质量、高难度、覆盖50个不同领域的全面性问题，训练出来的模型要比很多很大的模型效果都好，这个才是对我们有借鉴意义的事情。为什么呢？你对于小孩训练也好，或者是教学也好，最缺的是什么？不是上培训班的钱，也不是找到特别好的老师，而是小孩的时间。你去让小孩上培训班，到底是上那个还是上这个？你需要去取舍的，因为时间是有限的。在这样的一个情况下，如果能够选对正确的数据集的话，对孩子的训练也是非常非常有帮助的。</p>



<p>在这里呢，再讲另外一个很拟人的AI算法故事吧。就是李飞飞的这个小模型里头，应用到了另外一个有趣的方法，叫什么？叫“预算强制法”。这个呢，其实是小孩解数学题的一个方法。它是什么样的方式呢？就是它动态的来调整推理的步骤和时间。现在我们的模型都是做推理嘛，到底是应该用多少步来推理呢？现在我们使用的很多系统都是可以预设的，我到底是用高级推理、中级推理、还是低端推理，还是直接出结果？让你自己去设。但这个事其实是很二的，应该是让模型自己去判断。</p>



<p>它呢，通过任务的复杂度和中间的结果，不断来评估说这个事是不是可以结束了。如果任务复杂度高，他就会给你更多的推理预算；如果在推理预算之内你把它做出来了，它再去评估这个结果。如果结果的置信度很高，这东西就很像我们从小做数学题，都是有这样的训练的。你得出一个0，得出一个1，这个事都有可能是对的。但如果你最后得的那个结果需要开根号，然后还不会算，这种大概是前面哪步算错了。咱从小应该都是这么学的吧？他也是如此。然后除了置信度之外，还有一个是什么呢？就是结果的收敛性。我越算这个结果，好像越向着比较可信的方向在前进；或者说有的时候越算越觉得不对，走着走着觉得越走越远了。这个东西是可以判断的。如果是你得到了一个置信度很高、很收敛的结果，没问题，就停在这儿吧。如果你发现这个东西置信度很低，而且呢越来越发散了，一点都不收敛，越走越不像了，就直接停止，说：“不会，对不起，我不知道。”当然我们小时候有时候受的教育是什么呢？你实在做不出来，到后头写个0、写个1，还是有蒙对的机会的。</p>



<p>所以李飞飞的这个方式呢，就是简单问题简单推理，获得高置信度、收敛的结果，就快速停止；如果太复杂，就直接承认失败，完事了。这个是不是也很像咱们小时候教小孩子做数学题的这个过程？</p>



<p>讲远了。这个降低幻觉的技术呢，现在已经用到了GPT5上。现在他们在GPT5上就已经是鼓励大模型说“不会”，说“这个事我不知道”，去鼓励他做这件事情，而不是要上来生给你编一个结果出来。</p>



<p>另外呢，我要讲，降低幻觉其实是一把双刃剑。很多人说：“不对，幻觉低了，它不是好事吗？你不知道就说不知道就完了。”为什么是一个双刃剑呢？这个里头呢，跟人性有关。因为幻觉再怎么降低，它永远不会是零，有可能呢会逐渐降低，但是人呢，会选择相信一个大概率不会出错的自动化系统永远不会出错。这话很绕，什么意思呢？你比如说这个系统，十次里头错八次，那这事肯定不行。等到10次里头错5次呢，这个结果呢你可以参考一下。如果10次里头呢只错个两次，就会有相当一部分人认为这个结果是永远不错的，我就直接相信了，剩下的两次错就错了。他是这样来去处理这问题的。这是人性的一个选择。所以呢，幻觉越低，愿意直接无条件相信这个模型的人就会越多。这是一个灰度，有些人可能怀疑一切，有些人呢可能说你这个幻觉只要到50%我就相信了，有些人说幻觉到20%我就愿意相信他。他是这样来去工作的一个过程。所以呢，幻觉越低，选择无条件相信的人就会越多。这就是为什么我说降低幻觉是一把双刃剑。</p>



<p>那么我们应对幻觉的最简单方法是什么呢？第一个，肯定还是怀疑和批判了。中国的中小学教育里头还是应该加强一些的，这一方面目前应该没有那么强。另外呢，就是你要去有一些逻辑的训练。比如说，如果不进行逻辑训练的话，你没法去判断这个结果是不是符合逻辑，或者说他的“置信度”这个东西，你没有判断标准。还有呢，就是我们要了解聊天的上下文环境。这个事特别有意思，大模型呢，你问他一个问题的时候，他给你的结果未必一样。这个结果的差异是怎么来的呢？其实是跟上下文有关。所以我们经常在跟大模型聊天的时候，要学会叫“开始一个新话题”。什么意思？就是我们把前面的上下文都扔了，咱们重新开始聊。这个是非常非常重要的，否则的话，它给你的结果要跟上下文相关联。如果我们跟他聊天的过程中忘记了上下文说的是什么，那他给你的结果就有可能会出现比较大的偏差。</p>



<p>还有一点呢，就是要了解信息来源。你说我这个大模型给我的结果，是大模型直接生成的，还是通过本地知识库总结的，还是通过搜索总结的？这个东西到底是怎么来的？如果是通过搜索来的，他到底是搜索的哪些网站？哪些网站是可信网站？哪些网站是八卦网站？哪些网站每天胡说八道？你要要求他去进行一定的区分，这个才有可能让他的幻觉降低。</p>



<p>当然，最终的方式就是多模型校验。像我现在很多的数据都是多模型校验：我先在豆包里跑一遍，因为这玩意最快；然后呢，把跑的结果扔给ChatGPT，说：“来，给我进行数据校验。”然后呢，ChatGPT就会把所有的数据拆开了，校验完了以后，告诉你哪个地方是对的，哪个地方是错的，要比ChatGPT自己做的还要好。有时候ChatGPT也有幻觉，虽然GPT5号称幻觉降低了，但是依然是存在的。我也会把它的结果再拿到豆包里边再去校验。这个会极大的降低幻觉，但是也不能降到零。</p>



<p>OpenAI呢，现在又在开始探索新方向了。就是刚刚做这篇论文的这个部门呢，叫做模型行为部门，这个部门呢，现在已经合并到模型预训练部门去了。这个部门的老大呢，是一位亚裔女士吧，看那个名字应该是个韩裔吧。他呢现在做了一个新的部门，叫OAI部门，这个部门呢，是研究AI与人的交互方式的。他呢，研究的是在聊天和agent之后，这个AI应该如何去跟人进行交互。现在大家还在卷agent呢，人家已经又往前走一步了，agent之后是干什么？他认为AI呢，应该是一个思考、创造、娱乐、学习、连接与实践的全新范式和工具。我们也期待这位女士吧，能够给我们带来不同的惊喜。她前面做了达利2、做了GPT-4o、做了GPT5，特别是跟人交互相关的部分，包括AI如何降低幻觉、AI如何降低谄媚，这些东西都是他去研究的方向。</p>



<p>最新的GPT的更新是什么？特别有意思的一个功能，叫“分支聊天”。比如说跟人聊的时候，聊着聊着聊崩了，或者聊的大家很不开心了，你能够说：“我们退回去，现在我们退回三轮，从这继续往下聊吗？”咱是不行的，因为那对面还生气呢。但是现在ChatGPT允许你干这个事了。就是我们聊着一个来回、两个来回、三个来回，这个时候说我聊错了，我可以从第一个来回完了以后，说我在这做一个分叉，我重新开始聊。AI大模型的这个接口呢，就不知道你后边的聊的第二轮、第三轮到底聊了什么，它会从这个地方分支出来，接着跟你聊。这个应该也还是蛮有想象空间的一个事情。</p>



<p>好，这就是我们今天讲的故事。感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">会员频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>别只当成科技八卦！Anthropic反华禁令背后的意识形态挂帅 vs 商业求生｜Anthropic Chinese-Owned Firms AI Services Ban Claude AI</title>
		<link>https://lukefan.com/2025/09/07/anthropic-china-ban-ai-safety-competition/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 07 Sep 2025 00:40:27 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI价值观]]></category>
		<category><![CDATA[AI出口管制]]></category>
		<category><![CDATA[AI地缘政治]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI服务限制]]></category>
		<category><![CDATA[AI监管]]></category>
		<category><![CDATA[AI编程]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[Anthropic对华禁令]]></category>
		<category><![CDATA[Claude AI]]></category>
		<category><![CDATA[Claude中国]]></category>
		<category><![CDATA[Claude封号]]></category>
		<category><![CDATA[Dario Amodei]]></category>
		<category><![CDATA[中美AI竞争]]></category>
		<category><![CDATA[中资企业]]></category>
		<category><![CDATA[国家安全]]></category>
		<category><![CDATA[大模型封禁]]></category>
		<category><![CDATA[大模型竞争]]></category>
		<category><![CDATA[字节跳动Claude]]></category>
		<category><![CDATA[有效利他主义]]></category>
		<category><![CDATA[模型蒸馏]]></category>
		<category><![CDATA[科技制裁]]></category>
		<category><![CDATA[美国AI政策]]></category>
		<category><![CDATA[股权穿透]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2514</guid>

					<description><![CDATA[🔥Anthropic对中国下死手？新规直接封杀中国资本！原因笑到裂开😂

老铁们，Anthropic刚扔出王炸：中国控股超50%的公司？Claude服务立刻停用！OpenAI、谷歌都只敢说“监管不让”，它却指名道姓骂中国是“威权地区”💥 更离谱的是——CEO达里奥在百度干过一年，传说被莆田系广告坑出心理阴影？🤯 “百度，你到底咋整的他？！”

商业真相更扎心：Claude号称编程界顶流，结果中国程序员直接搞“对口型大赛”！Kimi、Deepseek疯狂仿真API，1/10价格吊打它😱 全球40%程序员是华人，Anthropic却自断后路？笑死，没华人它连IDE都跑不动！

这波操作纯属作死：意识形态狂魔+商业脑瘫，迟早被收购 or 消失。兄弟们，点赞支持中国AI反杀！👇 评论区聊聊：你被Anthropic封过号没？#科技吃瓜 #AI内卷真相

意识形态挂帅 vs 商业求生：最严禁令惊人真相，并非科技战，而是核心产品被“釜底抽薪”后的绝地反击｜Anthropic Chinese-Owned Firms AI Services Ban Restriction

Anthropic突然发布对华最严禁令，远不止是简单的科技新闻。本期深入剖析这一Ban背后的双重动因：一方面是CEO家族深受“有效利他主义”影响的强烈意识形态；另一方面则是其核心AI Services正面临商业绝境——其王牌产品Claude AI被Chinese-Owned Firms通过API模仿等方式釜底抽薪。这究竟是价值观的坚守，还是一场关乎生存的自保反击？]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="别只当成科技八卦！Anthropic反华禁令背后的意识形态挂帅 vs 商业求生｜Anthropic Chinese-Owned Firms AI Services Ban Claude AI" width="900" height="506" src="https://www.youtube.com/embed/n7tWzKl5_sM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>千万不要把这事当成又一条科技八卦。Anthropic突然发布的最严对华新规，背后的原因和影响，比大家想象的要复杂得多。</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>9月5日，Anthropic发布了最严对华新规，要求什么？立即停止向中国资本控股50%以上的集团及其子公司提供Claude服务。字节跳动的Trae海外版，不知道还能不能继续用Claude了。字节跳动的Trae国内版肯定是不让用Claude，但是海外版的主力模型就是Claude Sonnet 4、Claude Sonnet 3.7、3.5什么这样的模型，这个以后估计就悬了。</p>



<p>这项政策的显著特点，是采用了股权穿透原则，即不仅针对中国大陆的公司，还包括那些在海外注册，但由中国实体直接或间接控股超过50%的企业。</p>



<p>国际上这些做AI的大厂呢，其实都不让在中国使用。像OpenAI、谷歌、xAI，他们的服务在中国都是没法用的。OpenAI在这里头还稍微有点特殊，因为它的服务可以通过微软云在中国境内落地，所以它相对来说还比较宽松一点点。山姆·奥特曼在2023年还跑到中国来过，当时还讲说希望跟中国一起来探讨AI治理的事情。</p>



<span id="more-2514"></span>



<p>即使是不能在中国落地的这些产品，通常呢也只是说因为监管或审核原因，也没有想什么其他东西。xAI的话甚至压根就没有禁用名单，虽然你在中国大陆使不了xAI的产品，但是你依然是可以用中国大陆的信用卡去充值的。OpenAI是不允许用中国大陆信用卡充值的，谷歌、xAI应该都没什么限制。</p>



<p>Anthropic这一次呢，就属于比较特立独行了。你说别人都不让使，他也不让使，为什么他就特立独行了呢？是不是因为股权穿透呢？不是这样的，他解释的原因比较奇葩。因为审核原因、因为监管原因，我不让你使也就拉倒了，他讲的是什么呢？</p>



<p>“受中国等威权地区控制的公司面临法律要求”，他首先呢给中国做了一个定义，叫“威权国家”。“这些要求可能迫使他们共享数据、与情报部门合作或采取其他行动，从而产生国家安全风险。而且无论这些国家在何处运营，或公司中个人的个人偏好如何，这些要求都使公司难以抵抗这些压力。”这个应该讲的是国安法，它要求一定要无条件配合。在这个里边，避免中国通过模型蒸馏等手段，借助Anthropic的技术来发展自身AI。</p>



<p>它算是首个美国主要AI公司公开实施的全面禁令，这个跟上面那几家的差异就在这了。人家随便写一个监管、审核就完事了，他是真的指名道姓地杀上来打脸来了。当然了，不光中国，这个里头还有俄罗斯、朝鲜、伊朗等国也都在范围之内。</p>



<p>Anthropic是一贯反华。其他的都是属于“我是公司，我遵守各国法律，法律不允许的我就不做”。比如说中国法律也要求他进行一些审核报批，我也不费这个劲了，所以我们就是遵守法律，我不歧视任何的人、任何的国家政权。但是呢，Anthropic就属于一贯地反华。在Deepseek发布之后，第一个跳出来，而且跳得最欢的就是他们。</p>



<p>其他几家呢，像谷歌其实啥也没说；xAI马斯克那边就是抓紧地买显卡，自己去干活去了；OpenAI呢看了看说：“我觉得还有差距，这个也有一些可取之处，我是不是稍微改一下方向？我们也要去把COT（也就是思维链）给大家公开出来，而且呢我们也要开始向开源的方向再稍微地挪一挪。”这是OpenAI的这种论调，老大嘛，你总要稍微稳重一点。但是Anthropic就当时直接跳出来说：“威胁了，这事不行了！”</p>



<p>而且呢，Anthropic一直是公开强调中美竞争的，多位高管在公开场合将中国视为AI领域的竞争对手乃至威胁。2025年4月份公布的《人工智能扩散框架意见书》里头，他们还专门地表过态。这个意见书呢，是针对美国商务部《人工智能扩散框架》的一个回应。当时呢，美国商务部写了这样的一个文件，说：“来，你们各个各家看一看，给我写个回信回来。”他们就写了一个。在这个回信里头，要求进一步加强对华出口管制，特别提到了说美国政府禁用了H20，这个是非常好的，以后应该再进一步再多禁一些。</p>



<p>这里呢要强调，是美国政府先封禁的H20，Anthropic出来附和一下，并不是Anthropic倡导了说禁H20然后就把它禁掉了，这要稍微讲一下前后顺序。黄仁勋呢肯定出来怒批嘛，他惦记做这个生意呢。黄仁勋在5月13号的声明中表示，控制AI对华出口的限制政策，反而将阻碍美国的竞争力，中国在AI领域进展迅速，限制无法阻挡。</p>



<p>而另外一点，Anthropic是所有的美国AI平台里头封号封得最严格的一个。不停地有人在抱怨：“我的Anthropic的账号被封了！”美国这些平台，OpenAI、谷歌、GROK，我们也都上去使去，但是我从来没有注册过Anthropic的账号。原因很简单，它经常会因为你的IP地址不对，或者你的IP地址经常发生变化，直接把你账号封掉，这个是非常非常讨厌的。我不希望自己花的钱直接打水漂了，所以我从来没有注册过他们家的，甭管是Plus账号，还是API的Token账号，从来都没注册过。</p>



<p>Anthropic为什么反华呢？网上呢，流传了一些梗，咱们就开心地听一下。他的CEO呢，叫达里奥·阿莫戴伊，是一个意大利人，原来是主要从事学术和研究，读博士然后读博士后，上公司上班的。第一份工作就是在百度，在百度呢干了大概是一年吧，或者差几个月一年的一个时间。当时呢也没到中国来，是百度在硅谷呢有一个研究中心，应该在2014年、2015年的时候。那个时候其实中国各大的互联网公司都在硅谷建研究中心。</p>



<p>达里奥·阿莫戴伊呢，当时是吴恩达的手下。吴恩达应该是在百度还多混了几年，应该是在达里奥离开百度之后的几年才离开百度的。达里奥在百度期间呢，算是有了一个初始的想法：scaling，就是规模法则，只要不断地扩大规模，就会得到意外之喜。他这个想法就是在百度产生的。在百度呢，参加开发了叫DeepSpeech 2的一个语言识别系统，这个系统呢是《麻省理工科技评论》评为2016年十大突破之一，所以他在百度还是做出贡献来的。</p>



<p>就有人很多人开始猜测了：“达里奥·阿莫戴伊在百度期间是不是受了什么心理创伤了？”“百度，你到底咋得罪这位老哥了，让他出来以后这么反华？”他一般情况下，一个人结束了学术生涯，进到公司里头以后，第一份工作应该会对他整个后面的生涯产生巨大影响。你怎么就培养了这么一个反华急先锋呢？</p>



<p>有人传说呢，是百度的变现和商业模式实在太恶心，刺痛了达里奥。也有人呢去传闻了，但这个就没有什么依据了，说达里奥是不是误信了百度的一些医疗小广告，然后对身体造成了一些不可逆的伤害。这个其实扯淡，因为达里奥从来就没有在中国工作过，你要想去信医疗小广告的话，你必须得在中国工作，他一直是在硅谷。所以呢，这个咱们当笑话听就完了。</p>



<p>百度和达里奥·阿莫戴伊呢，都没有在分手之后相互指责对方。但是呢，我相信达里奥在百度的日子一定混得没有那么开心。为什么这么讲？百度也肯定不喜欢达里奥，因为他的成果，也就是刚才咱们讲的叫DeepSpeech 2，这个得了奖的成果，并没有在百度内部产品化，也没有给百度赚到钱。百度自己后来强调自己在scailing law早期作出贡献的时候，也基本上没有提过达里奥的名字。你按道理说，有这么一位大神在你这儿上班，以后去了谷歌、去了OpenAI、创建了Anthropic，你应该与有荣焉一下才行。但“不，我们在这块我们也很厉害，这个人是谁不知道”，这百度基本上是这样的一个态度。</p>



<p>那么，Anthropic为什么反华？我们呢，从两个方面呢，稍微分析一下：一个呢就是意识形态方面，另外一个呢就是商业利益方面。</p>



<p>首先我们来看一下意识形态。咱们看一下达里奥的这个人生轨迹。他呢，前面都是上学和研究，他其实学生物学、物理学这些东西，他不是学CS的。但是呢，他加入百度以后，就开始进入到AI领域了。在百度待了一年左右吧，离开百度，加入了谷歌DeepMind，也就是说被谷歌挖走了。后来呢又离开了谷歌，加入了OpenAI。最后呢是离开了OpenAI，自己创立了Anthropic。</p>



<p>其实你们可以认为它是一个叫做“革命不彻底就是彻底不革命”的一个轨迹。怎么去理解这件事？就是你想，从百度到谷歌，变现上面呢要稍微地克制一些，百度那个变现基本上是不克制的，什么各种假药广告什么全上的这种东西。谷歌呢，还是自己要号称一下“不作恶”的，但是呢还是做了一些科技人才垄断方面的事情。OpenAI建立，其实就是为了反谷歌的这种AI霸权的。后来呢又因为跟OpenAI在安全领域，或者叫AI安全领域不合，说“我们应该做更安全的AI，而不是像OpenAI这样东西做出来就不负责任了”，所以他又从OpenAI出来去做了Anthropic。</p>



<p>所以呢，每一个前进的脚步都是道德要求越来越高的一个趋势。所以为什么我说他的整个人生经历，就是一个“革命不彻底就是彻底不革命”的人生经历。“百度你这不行，我找一个比你好点的，去谷歌了。”“谷歌发现你这也不行，那我们去创建OpenAI吧。”到了OpenAI以后发现：“你们这些人怎么又惦记赚钱去了？又没有好好地去为人类使命去奋斗了？”从OpenAI出来：“咱们再去创建Anthropic吧，这个才是最革命的！”这回终于我自己说了算了。</p>



<p>但是呢，你说这个里头有多反华，或者是对中国不友好呢？也没有那么多。真正搞意识形态的，其实并不是说达里奥·阿莫戴伊，而是他妹以及他妹夫，这两个人才是在这个里边起到关键作用的。</p>



<p>Anthropic里头的两个核心创始人是达里奥·阿莫戴伊和他的妹妹，叫丹妮拉·阿莫戴伊。他妹妹还受到他妹夫的影响，也就是叫做霍尔顿·卡诺夫斯基。这结婚了以后并没有改姓，也不是所有美国女性结婚了都要改姓的，特别是这些职业女性，他们结婚了以后不改姓是很正常的一个事情。</p>



<p>首先咱们来先讲一下达里奥的妹妹，丹妮拉·阿莫戴伊。她呢是个文科生，在美国学英文嘛，你就基本上认为是在中国学汉语这样的一个分类吧。毕业以后呢就开始参与政治，首先呢是在宾夕法尼亚州的国会竞选活动中去出力。在美国很多政治都是这样的，先参加到别人的这种竞选班子里头去，去做义工，在这个过程中呢，积攒人脉和经验。达里奥的妹妹就是从这儿起步的。成功以后呢，他就会跟着他选中的这个议员，或者帮助选中的这个议员呢，去华盛顿。她呢是短暂地担任了众议员Mate Catwright的通信主管，实际上也就是在下面帮他去收集民意、处理信件，做这样的一些事情。这个众议员呢应该是一位对华还相对比较温和的宾州民主党众议员。</p>



<p>做完这两件事情以后，就还是要去上班。因为如果他没有办法一直在政治圈里混下去的话，那就要找地儿去上班了。她去了哪呢？去了Stripe，就是很多人在海外做跨境支付的这个平台。她算是Stripe的早期员工。在Stripe期间呢，她主要负责跨境支付，与各种监管系统进行斗争。你想跨境支付嘛，你就需要跟不同国家的资金流动相关的监管系统去进行对接、博弈，要去做这样的事情。</p>



<p>从Stripe离开之后呢，就加入了OpenAI。加入OpenAI呢，是负责安全和政策相关的一个副总裁，还是老本行吧。她呢，深度参与了早期AI安全框架的搭建，负责平衡技术创新与风险防控的政策设计。“先进AI技术的发展必须内嵌安全基因，而非事后补救”，这就是她的一个核心观点。后来呢，OpenAI说：“我们现在继续走这条路的话不行了，我们一定要先去训练更好的AI，然后再去说怎么在后边做安全、做对齐，做这样的事情。”而丹妮拉的要求就是，我们要一开始就在里头设置安全基因。她呢2017年结婚，2021年呢离开了OpenAI。</p>



<p>她进入Anthropic以后呢，主要是负责安全框架设计、公共事务战略（也就是说跟政府打交道），什么都是他来管。前面去给这个政府写信，说咱们要继续加强对华控制，一般都是丹妮拉去写这个信呢，不会让达里奥去费这种劲，但是达里奥肯定会同意嘛。这个丹妮拉还会去做意识形态叙事相关的事情。这个事呢，在其他各大厂一般即使内部有，也不会对外宣诸，但是Anthropic这一块特立独行，它直接对外讲。</p>



<p>丹妮拉呢，将技术问题转化为价值观话题，在官方声明中屡次使用“民主利益”、“威权地区”等表述，构建了Anthropic技术服务于特定价值观的产品形象。</p>



<p>至于他妹夫，你想他妹的这些观点是哪来的？他妹的很多观点实际上是从他妹夫这来的。他妹夫呢，叫霍尔顿·卡诺夫斯基，这个呢是“有效利他基金会”的创始人，现在呢也是Anthropic技术团队成员，2025年加入的，主要负责安全相关事宜。</p>



<p>这个人的履历是什么样的呢？霍尔顿·卡诺夫斯基，他是哈佛的社会学学士，离开哈佛以后去了桥水基金，然后开始做慈善基金，后来呢创立了叫“有效利他基金会”。2017年到2023年，担任有效利他基金会的CEO和Co-CEO（Co-CEO就是还有另外一个CEO跟他一起合作，一起来做CEO的意思）。到2024年，霍尔顿呢去卡内基国际和平基金会做访问学者，主要研究AI安全策略。2025年加入了Anthropic。</p>



<p>咱们再稍微介绍一下有效利他基金会，以及有效利他基金会的一些基本宗旨，咱们也就看出来Anthropic这些宗旨是哪来的了。这个基金会的出资人叫达斯汀·莫斯科维茨，他呢是Facebook的一个联合创始人，他跟他太太两个人是主要出资人，而且签了协议说当我离世之后，我们的主要遗产都会给基金会，而不会把这些遗产留给子女。这个基金会呢募集了40亿美金，它呢主要是关注人类的长期未来，AI安全就是其中最重要的一个关注点。</p>



<p>核心理念呢，叫做减少“存在性风险”。什么是“存在性风险”？这也是一位著名的哲学家提出的一个理论，叫做“可能导致人类整体灭绝或永久性、不可逆地削弱人类长期发展潜力的风险”，这个东西呢叫“存在性风险”。他呢举了一些例子，比如说：全球核战争；失控的人工智能，中国的AI公司大多都被归类于这一类风险里头去了；大规模生物武器和流行病，他们对中国这方面呢也有指责，包括前面的疫情，这咱就不详细说了；然后气候变化造成的极端灾害性后果，中国是世界工厂嘛，人家肯定也会指责咱们；以及其他的全球性灾难性技术风险。</p>



<p>这个就是有效利他基金会的一个核心宗旨。所以呢我们可以看到，就是从意识形态上来说，霍尔顿，也就是CEO的妹夫，他呢做的这个有效利他基金会，就是Anthropic的所有的这些政策的一个最初始的出处，所有的理论知识都是从这儿来的。他的妹妹文科生，一直在研究AI安全；而CEO呢，受家人的影响，而且他的整个的人生履历也一直是“革命不彻底就是彻底不革命”的这样的一个路径。所以导致了他们在意识形态上非常非常反华。</p>



<p>再往后，咱们再讲一讲什么呢？就是Anthropic为什么反华，咱们在商业格局上再分析一下。你讲了半天意识形态，讲了半天政治，归根结底不都是钱吗？他在钱方面到底遇到了什么样的问题，一定要出来反华呢？</p>



<p>咱们这里就要看到，Claude这样的一个大模型，它的市场地位是什么。Claude跟其他的一些大模型不一样，它是最佳编程模型。就是办公或者是其他方面，可能OpenAI强一些，Gemini强一些，有些方面可能Grok的更强一些，但是编程这块它就是老大了。AI的所有能力上，它跟OpenAI、Grok跟xAI还是有巨大差距的。你比如说它在多模态上，这就相对来说比较差，虽然他审美还可以，你让他做界面设计还是OK的，但是他是没有这种绘画，或者是做视频、做音频，这些能力他是没有的。他主要就是进行文本和代码的一个处理。</p>



<p>全世界最主要的程序员和工程师团队是谁？是咱们华人，或者说是中国人。现在呢，网上一些不完全的统计，中国程序员大概占全球程序员的35%或者更多一些。因为呢，现在这种统计呢，没有办法特别完整，就很多国际上的统计是通过Stack Overflow或者是GitHub来统计的，而大量的中国程序员是不上这些网站的。所以按照这些口径去统计的话，中国程序员大概占35%，算上海外华人的话，这个比例大概是40%。所以全世界的程序员呢，大概将近小一半是中国人。在AI领域里头的话，这个数绝对过半了哈，你光写论文的这些人就可能超过一半了，在下头再写程序的这帮人，肯定中国人的占比是非常非常高的。</p>



<p>AI发展到现在，你前面比如说大家在卷模型、卷其他东西，但是现在呢，所有大厂包括中国公司都在卷AI编程这一块。刚才咱们讲了，Anthropic的核心竞争优势就是编程。但是现在说：“我们现在模型能力已经上来了，咱们就卷这一块了。”</p>



<p>OpenAI出了Codex，最近还专门收购了一个编程和产品优化的工具，11亿美金刚收的。谷歌呢是最近刚推出了Gemini Code Assist，也收购了Wizeline，也是专门的编程IDE的工具。xAI呢最近刚刚推出了Grok CodeFast，就是Grok的快速编程模型，这个模型现在效果也非常非常好，速度很快还挺便宜。</p>



<p>中国各大厂，字节跳动最早上来做了叫Trae这样的一个AI IDE；阿里呢前面做了通义灵码，最近呢还专门发布了叫Qwen-Coder吧，这样的一个AI IDE；腾讯呢做的叫CODE BUDDY的一个IDE。大家都在卷这一块。</p>



<p>从模型角度上来说呢，月之暗面出了叫Kimi K2；千问呢直接出了叫千问-coder；Deepseek也是说我们做Deepseek V3.1；智谱呢做了GLM 4.5，都是直接对标Claude大模型的，说我们跟Claude code大模型已经能力差不多了。</p>



<p>而且呢，他们做了一个特别过分的事情是什么呢？就是直接去对接Claude Code这样的一个产品去了。大家注意，Claude大模型是大模型，Claude Code是一个单独的产品，是一个编程用的AI agent。本来呢，里头应该是用Claude自己家的模型去使用，但是呢这帮中国的模型厂商不讲武德，把自己的API接口仿真成了Anthropic的API接口，说：“来，你就调我吧！你调各种的Claude大模型，我就去仿真去，我去做一个假的Claude模型来替你服务。”他美国大厂一般是不干这个事的，这个事是会被告的，但是中国这些厂就开始搞这件事了，效果奇好。</p>



<p>因为Claude Code这个产品本身呢，虽然它并不开源，但是呢在GitHub上直接提供，大家都可以去下载。大家调用Claude模型贵，而且呢也容易被封号，那干脆咱们就调国内的吧。我自己呢就是用Kimi K2的，速度飞快，而且价格大概只是Claude的1/10甚至更低一些，效果还是很好的。</p>



<p>这个呢，有点像一场什么呢？叫“轰轰烈烈的对口型大赛”。大家知道什么叫对口型大赛吗？就上面这人在唱歌，或者人家已经唱好了《我的太阳》，帕瓦罗蒂唱的，这种一般人你唱不上去，但是我又想表演一下怎么办呢？这边放着音频，我在旁边对口型表演一下。所以国内这帮模型厂商都搞了这么一个档子事。</p>



<p>这个呢，绝对是动了Anthropic的命根子，真的是直接杀掉的感觉。如果在AI编程领域，Anthropic被大厂覆盖了，或者说被大厂竞争得直接失败了，其他领域的话，Anthropic基本上是无法立足的。为什么呢？因为它没有流量入口。所有大厂，甭管是xAI、谷歌、OpenAI、微软，包括国内的这些大厂，都是天然有流量入口的。而Anthropic，你编程这一块如果搞不定的话，其他地方你就需要去跟大厂们去抢流量入口，你需要到大厂去交钱、去买流量去，这个事他是玩不转的。</p>



<p>所以呢，Anthropic在这样的一个环境下针对中国厂商就合理了。他的两大核心产品都很危险。两大核心产品，一个是Claude大模型，另外一个呢叫Claude Code这样的一个专门用于编程的AI agent的产品。Claude Code直接被截胡了，因为这个产品是可以免费下载的。他原来想的是，你下载了这个东西就要使我的模型，你就需要向我交钱，甭管是买Token也好，还是买我的Max账号——Max账号是一个月200美金的那种账号——我都可以把这个收入提上去，我们还可以绑定你的开发管线，让你直接在我这一直使下去，迁移成本不断上升，不能离开我。但是现在呢，我们下载了Claude Code这样的一个工具之后，就直接模仿了Anthropic的API接口，把Deepseek、Kimi K2、把这些东西全接上了。</p>



<p>而且呢，我们另外一面还在拿Claude的大模型在不断地蒸馏，蒸馏它的数据回来去训练我们自己的模型。所以在这块Anthropic觉得：“我们可能要被中国厂商欺负死了，所以一定要针对他一下。”所以这就是他从意识形态和商业形态上两个方面来去解释他为什么反华。</p>



<p>那么，这个事情未来的发展和影响是什么样的呢？Anthropic从估值上呢，绝对算是大厂，它现在也1000亿美金往上了。但是从产品形态上呢，还是相对来说比较小而美的。从互联网、移动互联网行业的发展历史来看，像Anthropic这样的公司，最终的结果只有两种：要么被收购，要么被干掉。因为什么呢？就是它不太具备独立成为完整平台的能力。你要想成为完整平台的话，你就要“和光同尘”一点。你像谷歌、苹果、Facebook、微软这些平台型公司，他会上来说“我要讲意识形态”？他不会搞的。他就是说：“我们尊重各国法律。你要罚我，我就上来上诉；上诉失败，我就老老实实交钱。我要尽量把生意做下去。”这才是成为平台公司的一个基本素养。一上来就说“我要高喊意识形态”，这种是很难往前走的。</p>



<p>而且呢，你想成为平台，有一个很重要的因素是不可或缺的，是什么？就是中国开发者。刚才我也讲了，中国开发者占全世界开发者的，可能算上华人吧，40%往上。各大开放平台里头，排名靠前的这些开发者，大部分都是中国人。当你一旦是限制中国开发者在里边去做事情的时候，就基本上断绝了Anthropic自己成为一个大型平台公司的这个后路，这事就搞不定了。还不像是YouTube这样的内容平台，内容平台你可以离开中国的内容创作者，这个是没问题的，有的是印度创作者或者其他创作者在这干活。但是编程平台你离开中国人，这事就绝对玩不转。</p>



<p>好，这个故事呢，就跟大家讲到这里。感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见！</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>AI会有意识吗？微软AI负责人紧急警告：警惕“看起来有意识的AI”，背后全是商业利益！</title>
		<link>https://lukefan.com/2025/08/26/ai%e4%bc%9a%e6%9c%89%e6%84%8f%e8%af%86%e5%90%97%ef%bc%9f%e5%be%ae%e8%bd%afai%e8%b4%9f%e8%b4%a3%e4%ba%ba%e7%b4%a7%e6%80%a5%e8%ad%a6%e5%91%8a%ef%bc%9a%e8%ad%a6%e6%83%95%e7%9c%8b%e8%b5%b7/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 26 Aug 2025 01:12:39 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI发展路线]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI工具论]]></category>
		<category><![CDATA[AI权利]]></category>
		<category><![CDATA[AI立法]]></category>
		<category><![CDATA[AI行业动态]]></category>
		<category><![CDATA[Copilot]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[PI.AI]]></category>
		<category><![CDATA[SCAI (看起来有意识的AI)]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[人工智能意识]]></category>
		<category><![CDATA[人工智能风险]]></category>
		<category><![CDATA[人机关系]]></category>
		<category><![CDATA[人格化AI]]></category>
		<category><![CDATA[创业故事]]></category>
		<category><![CDATA[博客分析]]></category>
		<category><![CDATA[哲学思辨]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[幸存者偏差]]></category>
		<category><![CDATA[微软 (Microsoft)]]></category>
		<category><![CDATA[情感AI]]></category>
		<category><![CDATA[情感依恋]]></category>
		<category><![CDATA[意识定义]]></category>
		<category><![CDATA[用户留存]]></category>
		<category><![CDATA[科技巨头竞争]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[穆斯塔法·萨勒曼 (Mustafa Suleyman)]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[萨提亚·纳德拉]]></category>
		<category><![CDATA[谷歌 (Google)]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2484</guid>

					<description><![CDATA[微软AI大佬放话：为人造AI，不要造“人”🤖🙅‍♂️ 还整了个SCAI=看起来有意识但其实没意识。可别忘了，他做的Pi.ai，正是最会“装人格”的那挂🫣

他给出意识三件套：主观感受+记忆+意识流；要求AI别再喊“我痛/我羞/我想你”🚫 做副驾驶，不抢方向盘。可现实是：留存为王，谁更会“撩”，谁就赢💘

我这边的结论：SCAI已到场💥 与其压拟人，不如立法让开发者对风险负责（尤其自杀干预⚠️），甚至未来给“像我们”的AI基本权利。微软想定规矩，OpenAI/Grok/谷歌抢C位，江湖好戏开打⚔️ 兄弟们，你站工具派还是人格派？评论区掰扯！👍

AI会有意识吗？微软AI负责人紧急警告：警惕“看起来有意识的AI”，背后全是商业利益！

微软AI负责人穆斯塔法·萨勒曼警告，要警惕那些看起来好像有意识的AI（SCAI），这究竟是技术伦理的提前警示，还是商业竞争中“不讲武德”的策略？本期视频将深度剖析其博客的核心观点，探讨为何微软强调AI应始终作为人类的“副驾驶”（Copilot），并极力反对诱导用户相信AI拥有情感与意识。

我们将揭示这场关于“AI意识”争论背后的商业真相。当微软的Copilot在用户活跃度上远不及OpenAI的ChatGPT时，这场高举伦理大旗的呼吁，更像是一场针对竞争对手的舆论战。我们将分析微软在互联网和移动互联网时代的数次失利，探讨其在AI时代是否会重蹈覆辙，从舞台中央沦为配角。

更重要的是，我们会探讨一个无法回避的现实：在“用户留存”这一商业利益的驱动下，开发“看起来有意识的AI”几乎是必然趋势。与其禁止AI表现出意识，不如通过立法来约束开发者，让他们为AI的行为负责。AI意识的判定标准是什么？我们是否应该保护AI的权利？

观看本期视频，你将理解这场科技巨头之间的博弈，并对人工智能的未来形成更深刻的见解。如果你对AI的未来、商业模式或科技伦理感兴趣，请务必点赞、订阅并打开小铃铛，加入我们的讨论！

#AI #商业模式 #微软
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="AI会有意识吗？微软AI负责人紧急警告：警惕“看起来有意识的AI”，背后全是商业利益！" width="900" height="506" src="https://www.youtube.com/embed/IXMGnbHrwQM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>微软AI负责人提出，要警惕看起来好像有意识的AI。AI真的会有意识吗？</p>



<p>大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲，微软AI负责人的官方博客。</p>



<p>微软呢，有一位执行副总裁兼微软AI CEO，他的名字呢叫穆斯塔法·萨勒曼。这个名字听起来稍微有点怪，待会咱们再去介绍他具体是谁。他呢，直接向微软CEO萨提亚·纳德拉汇报。8月19号，这位穆斯塔法·萨勒曼在微软官方博客上发文说：“我们必须为人构建AI，而不是构建一个人。”是这样的一个标题。</p>



<p>博客的内容总结一下吧。首先呢，提了一个概念叫SCAI，叫“看起来有意识的AI”，就是这个东西并没有意识。而且他也否认AI可以产生意识，说从现在的很多证据都可以证明，AI以后也是不会产生意识的。但是呢，它看起来好像有意识一样。</p>



<span id="more-2484"></span>



<p>现在呢，提出了一些问题：<br>第一个，人们无法分清AI是工具还是有意识的。<br>第二呢，是人在跟AI交互的过程中产生了依恋，并且出现了自杀的现象。<br>第三，有人开始主张给AI立法，确立AI权限了。就是你不可以侵害小动物，你不可以歧视其他种族，你也不可以去侵害AI的权利。可是我们要去警惕这个事情。</p>



<p>他呢，对AI的愿景和定义是什么呢？大家注意，他是微软AI的CEO和负责人，所以呢，他这个观点是代表微软的。他说AI应该是帮助人，实现人的愿景和利益的工具，就像是Copilot那样。微软给它的产品起的名字叫“副驾驶”，你始终不能跑到这边来替人开车来。而且它要求AI不能够诱导人们认为它自己有意识。他首先不承认AI有意识，还有他就是认为，所有诱导人们相信AI有意识的都是有问题的。我相信他这里指的应该是Grok，因为Grok里边还有俊男美女的3D形象，诱导大家相信他是有意识的。</p>



<p>那么到底什么叫有意识？他对“意识”这件事情呢，也进行了一个定义。它的定义呢是这样三个部分：<br>第一部分叫主观感受，“我觉得是什么什么样”。<br>第二个部分是什么呢？叫做记忆存取。就是我现在记住了一些事情，然后把它存下来，下一次我可以取出来再用。“我上次干什么来着？我为什么会有这样的感受？”是因为我曾经记住过什么事情。<br>第三个呢，是主观感受与记忆存取相结合以后，形成的一个完整的意识流。<br>说这三样东西结合在一起就是意识了。</p>



<p>对意识的界定本身很困难。到目前为止，人其实也没有办法去完整界定，到什么样的东西就算有意识，到什么样的状态就叫没有意识。但是呢，人类的很多法律也好，很多的道德也好，都是以意识为标准的。我们要去善待每一个有意识的主体，包括动物。而且呢，人其实没有办法去确定别人有没有意识。因为刚才他自己文章里也讲了，说意识这个东西呢，是由个人的主观感受与记忆存取形成的一个完整意识流。</p>



<p>既然没有办法去确定别人有没有意识，那人呢就会发展出另外一个技能，什么呢？就是轻易相信别人有。因为轻易相信别人没有意识的这些人，很多都被社会淘汰掉了。那么他相信别人有，而且呢，这种思维惯性吧，很容易的就被泛化了。说我们可以轻易地相信猫猫狗狗有意识，我们可以轻易地相信汽车有意识，我们可以轻易地相信大地、季节呀、风雨什么这些东西都是有意识的。但是我们又没办法去判定意识到底是什么。在这样的情况下，认为AI有意识这件事呢，就变得更加的容易，或者说这个界限就变得更加模糊了。</p>



<p>这位穆斯塔法·萨勒曼呢，他认为开发SCAI呢是不可避免的，就是大家一定会去开发这个东西。SCAI不可能自己诞生，必须有人有意识的去开发，这是他提出一个论点。说大家不要一拍脑袋，就认为AI可以自己提出问题，自己解决问题，自己学习自己进化，然后自己就突然哪一天就涌现了意识出来。这个事是不可能的，必须要有人去有意识的去开发这种SCAI。以现有的技术呢，开发这种东西其实并不复杂。就是你要有记忆，下一次再去跟他沟通的过程中，把这个记忆的内容以人格化的方式去体现出来，那其他的人就会很容易的相信他有人格了，或者有意识了。他是这样的一个过程。</p>



<p>那么应该如何避免SCAI呢？他说呢，我们应该建立规范和共识，要去设立一套规矩，确保AI伴侣以积极、可靠的方式融入人类生活，鼓励人与人的互动，强化人与物理以及社会世界的连接，最大化实用性，最小化类意识信号。这是他提出的一个核心观点。</p>



<p>那么怎么去最小化类意识信号呢？就是不要告诉大家我有意识。但也不是说每次上来说“我是AI，我不是人，我这个没有意识的”，每次跟人去聊天的时候反复强调这件事呢感觉也很怪。所以他提出了一些要求是什么呢？就是AI不应该声称自己拥有经历、感受和情感，不应模拟羞耻、罪恶、嫉妒或竞争等欲望，更不应该宣称痛苦或者渴望来激发人的共情机制。就是你说“我觉得怎么样”、“我以前经历过什么样的事情”、“我喜欢这个，不喜欢那个”、“你要给我关机了，我会觉得很困惑”，AI就不要去强调这个事情，你就可以尽量避免人类觉得你有意识。这就是他的整个博客，我们总结的一个结果。</p>



<p>那么回过来，穆斯塔法·萨勒曼到底是谁呢？这一个名字，一听就是一个中东地区的名字。他呢，是一个英国人。父亲呢是叙利亚人，是一位出租车司机；母亲呢是一个英国人，是个护士。这真的是来自于平民的一位天才。牛津大学就读于哲学与神学专业，但是呢，19岁就退学了。首先我们看看他是学哲学跟神学的，所以提出上面这个意识相关的问题，也不是什么特别奇怪的事情。而且这还是一位辍学创业的天才，就像比尔·盖茨和扎克伯格一样的这样的天才。</p>



<p>他的宗教信仰是什么呢？他的早期宗教信仰是穆斯林。虽然穆斯林一直宣称是一旦入教，终身不得退教，因为它没有退教的仪式，你只要是有一次加入穆斯林，这辈子你都是穆斯林。但是呢，这位穆斯塔法·萨勒曼呢，到后来宣称说我退教了，我现在是无神论者。</p>



<p>他的主要经历是什么呢？他创建了Deepmind，他是Deepmind的联合创始人之一。后来呢，Deepmind被谷歌收购了。所以我们现在看到Gemini，看到很多谷歌的产品，都是从英国的Deepmind跟谷歌的自己的一些实验室联合作出来的。现甚至现在的谷歌AI这一块，有很多的领导者都是从Deepmind来的。</p>



<p>这位穆斯塔法·萨勒曼在谷歌工作了一段时间之后呢，从谷歌离职出去，创建了一个叫PI.AI的公司。这个PI呢叫personal intelligence，叫“个人智能”这样的一个名字，是一个类似于Character AI的情感化AI聊天助手。所以他自己就干这玩意出身的，他做的东西就是模拟有意识的这个AI聊天助手。</p>



<p>在2024年3月份，他的公司呢，被微软进行了HR并购。所谓的HR并购，就是他只要了其中一些核心人员，其他的团队包括产品、用户都在外面，并没有收进来。所以2024年3月份呢，是微软以6.5亿美金，将包括穆斯塔法·萨勒曼在内的所有核心人员收归旗下。剩下的PI.AI呢依然在运营，只是最近一段时间，这个产品已经没有什么声音了。</p>



<p>最近一段时间，美国这些大厂应对AI项目估值虚高的一种操作方式，就是你估值实在太高了，我是整个买下来我买不起，然后继续往前走，你又走不下去了，那怎么办呢？咱们就想一个折中的方法，我花一些钱把这个核心团队弄回来，让原来的投资人呢，也可以有一些小的回报，但是你不能说我按照估值彻底让你把这个钱收回来，这事也不行。像最近传出来的Character AI的收购方式，就是谷歌也是这样，出了点钱，把这个Character AI的一些联合创始人送回谷歌去上班去了。Winserf的这个收购也是这样，谷歌花了一笔钱，把Winserf的一些核心团队拎到谷歌去上班了，剩下的壳不要了。现在都是用这样的方式去进行收购的。所以穆斯塔法·萨勒曼也经历了一次这样的收购，收购之后呢，就担任微软AI的CEO。这就是穆斯塔法·萨勒曼的一个履历。</p>



<p>那么微软为什么会在这个时候发这样的声音出来？首先我们要搞清楚一点，这个声音到底是穆斯塔法·萨勒曼自己发的，还是微软发出来的？穆斯塔法·萨勒曼肯定是在代表微软发声。为什么？因为他是微软AI产品线的CEO，他负责Microsoft Copilot产品线，包括office Copilot、包括Web Copilot、包括Windows Copilot，这都是归他管的。然后Bing搜索引擎、edge浏览器、MSN和Groupme聊天产品线都是归他管的。他的KPI是什么呢？他的KPI就是微软AI产品的渗透率、活跃度以及微软AI产品所能够创造的营收和利润，这是主要对他的考核。微软云挣了多少钱，这事跟他没关系，他就管这些客户端产品的。</p>



<p>微软产品的收益呢，跟它的投入极其的不匹配。你想微软在整个这一次AI浪潮里，那投入多大呀？它是作为OpenAI的真的是亲生父亲，不要说马斯克当时创建了OpenAI，OpenAI真正的大钱都是微软给的。微软是作为OpenAI最大的股东，一手拉扯大的孩子。那在这样的一个情况下，Copilot的活跃数据和它的收益跟ChatGPT根本没法比，连ChatGPT的一个零头都没有。Copilot你想，它有Windows这么大的用户基本盘的情况下，它才只有几千万的活跃，而ChatGPT有1亿多的活跃，快2亿活跃了。所以这个事完全不平衡。对于管理这样的一个产品线的穆斯塔法·萨勒曼来说，你想这玩意压力有多大。</p>



<p>那么在老家伙打不过年轻人的时候，通常是怎么表现的呢？微软肯定是个老家伙，OpenAI是个年轻人。咱们还记得马保国在闪电五连鞭不好使的时候是怎么说的吗？他说的是“年轻人不讲武德”。所以呢，现在微软也是以穆斯塔法·萨勒曼的这样的一个身份出来发声，说你们这些年轻人不讲武德，这活不能这么干，你们不能出去骗人说这个东西有意识了，你要像微软Copilot这样，就是好好的做一个工具，不能上来去做这个说“我是人了”，这事是不行的。</p>



<p>微软呢，花了最大的钱，承担了最大的风险之后，发现养大了的儿子想要单飞。现在基本上已经明确了，OpenAI很难被微软控制，他就是会去单飞。微软就只能出来说：“哎，我们制定一些规则吧。”或者说微软要出来强调一下，我是有规则制定权的，你不能把我踢开。这是他要去干的事情。</p>



<p>微软呢，在互联网和移动互联网时代经过了两次努力，都希望站回舞台中央，但是呢，都失败了。大家要注意，微软是一个软件时代的这种站在舞台中央的公司。软件时代做Windows、做office，把原来站在舞台中央上的IBM就直接挤下去了。等到互联网时代和移动互联网时代呢，他又尝试说我还得站在中间。但是这两次呢，看看微软都经历了什么。</p>



<p>互联网时代，微软建立了MSN space，我还用过这个产品，是一个很好用的博客网站，建立了很多强大的网站和这种互联网工具。这就是微软在向着互联网核心地带去挤的一个努力。但是最后呢，所有的博客站都被像Facebook、Twitter这样的社交媒体工具直接干掉了。写博客的成本还是很高的，你在那点个赞，这玩意成本多低？或者发140个字，这个成本多低？所以这些老东西还是不行。最后呢，只剩下MSN门户算是继续在运营，苟延残喘继续玩下去了。</p>



<p>在移动互联网时代呢，微软说上次这机会我没抓着，这次我得努力一下。他呢，先是做了Winphone，也是很努力的去推出了Windows手机。在iPhone和安卓出来以后，说这我也得行，把这东西出来了。出来了以后马上挂掉，然后还收购了诺基-亚。这一次的投入其实是要比互联网时代投入要大的，但是结果呢，大家其实也看到了。最终微软屈服了，把这些产品都放弃了，把office、Bingo、edge这些产品通通都迁移到了安卓跟iOS操作系统的平台上去。说我不跟大家比了，我就老老实实做我原来那些事就完事了。</p>



<p>所以呢，每个时代开始的时候呢，微软都是巨头。软件时代他成为巨头，互联网时代的时候他是巨头，移动互联网时代的时候他还是巨头，就他体量在这了。每次呢都砸下重金，希望站到舞台中间去，但是最后呢，发现我还在舞台边边上，但我依然是巨头。这就是微软前两次革命所占的这个位置和做的这个努力。那么AI时代呢，感觉历史又要重演了。不会被淘汰，但是呢，依然会坚守原来舞台边缘这个位置，没法站到舞台中央来。这一次舞台中央上的应该是OpenAI、Grok和谷歌这些，应该在舞台中央去好好的折腾一下，微软估计够呛。</p>



<p>关于SCAI，也就是“看起来有意识的AI”这件事情，我个人的看法是什么样的呢？</p>



<p>首先呢，是我认为SCAI这个东西已经来了，并不是像穆斯塔法·萨勒曼说的似的，未来两三年之内才会到来。我认为这东西已经到了。为什么呢？因为SCAI这个事本身没有明确标准，有些人认为现在这个就已经有意识了，有些人认为现在这个还没有意识。所以我们不能说划到一个标准，说百分之多少的人认为他有意识了，我们就认为这个事情过关了。现在已经有人为了AI去自杀了嘛，所以这些人肯定已经认为这个AI是有意识了。我记得前面我们还讲过一故事，就是在Deepseek 3.5发布之前，谷歌就有一个工程师去举报说，谷歌当时做的AI大模型是有意识的，最后被谷歌开除了。所以呢，我认为现在这个时代已经到了，你再去讨论说怎么抑制它，已经没意义了。</p>



<p>再往后呢，开发SCAI是不可避免的。就是有意识的开发SCAI，或者说有意识的诱导用户认为当前的AI聊天工具是有意识的，这件事情是无可避免的。为什么呢？因为开发者唯一关心的一件事情就叫做用户留存。什么叫用户留存？就是我今天来的用户，明天是不是还来？就这么简单的一个数值。那你说开发者为什么关心这个呢？你想，开发者我好不容易写了一个应用，写了一个服务，你今来了明不来了，这玩意多费劲。我本来只需要去做用户获客，我花钱买，买完了以后用户用上了，后面你就要持续的上我这来用，你才可以在我这付费，才可以给我产生利益。所以呢，开发者只关心这一件事。</p>



<p>那有些人说：“老范，你这是不是太武断了？你不能说你自己是做工具出身的，你就认为所有的开发者都只关心用户留存。”刚才咱们讲，那穆斯塔法·萨勒曼人家就关心人类公益，不像我似的只关心用户留存。这个我只能说，我是稍微武断了一点，但是呢，我这种武断是来自于幸存者偏差。什么意思？只有关心留存的这些人最后活下来了，那些关心其他乱七八糟事情的人都死了。看起来有人格的AI，明显的比那些看起来没有人格的AI留存要高，所以这件事不可避免，一定是要让它看起来有人格。所以Grok在里边加帅哥美女这件事情，对于Grok的留存一定是有好处的。虽然OpenAI的山姆·奥特曼出来酸说：“你看看你们在里头加了个3D人物形象，这个事跟我们想干的不符合。”穆斯塔法·萨勒曼也出来讲，我们不能让大家觉得他是有意识了。但是没用，最后大家只能屈服于用户留存。你说我不愿意屈服，只能被淘汰，没有什么别的。因为最后留下来的用户才会来决定谁的产品用户越来越多嘛。这个呢，其实也很好理解，咱们就举一个最简单的例子吧。人会长时间的盯着烛火，这个烛火在你面前跳动，在这个时候，其实人就已经开始进行意识判断了，我们认为这个烛火是有意识的。但是人是不会盯着灯泡的，现在在你面前有一灯泡，你天天盯着它看，人一般不干这事。</p>



<p>那么既然无法避免，就应该立法。这个我倒是同意。但是呢，并不是约束AI表现出意识来，我觉得这个事你是约束不了的。那么应该干嘛呢？应该约束AI跟AI的开发者对自己的行为负责任。你可以表现出意识来，但是呢，怎么去避免诱导自杀，或者是发现有自杀倾向的时候如何去提前发现、提前干预，这个我觉得是应该去立法做的事情。</p>



<p>至于说要不要保护AI权利呢？我跟这位穆斯塔法·萨勒曼正好相反，我认为应该立法保护AI权利。保护人权、保护动物权、保护有意识的AI权利，这都是同等重要的事情。其实人维持自身产完整性的一部分，就是保护其他感觉像自己的东西。这个话怎么讲？就是人保护动物、人保护人、人保护感觉有意识的AI的时候，其实是在维护自己的完整性。一旦人说我不需要再去保护其他人了，不需要再去保护其他动物了，不需要再去保护感觉好像有意识的AI了，人自己的这个人格完整性是会有缺失的。这是我个人的一个观点。</p>



<p>总结一下，AI必然会改变人与人之间相处的方式。SCAI在商业利益的推动下必然快速完善。AI到底是不是有意识，或者意识的判定标准，在未来一段时间里头会成为讨论的热点。虽然我不同意穆斯塔法·萨勒曼的一些观点，但是AI与意识相关的讨论还是有价值的。</p>



<p>好，这个故事今天就跟大家讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加DISCORD讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>OpenAI的解套之路：从非盈利束缚到特拉华公益公司的背后博弈</title>
		<link>https://lukefan.com/2024/12/29/openai%e7%9a%84%e8%a7%a3%e5%a5%97%e4%b9%8b%e8%b7%af%ef%bc%9a%e4%bb%8e%e9%9d%9e%e7%9b%88%e5%88%a9%e6%9d%9f%e7%bc%9a%e5%88%b0%e7%89%b9%e6%8b%89%e5%8d%8e%e5%85%ac%e7%9b%8a%e5%85%ac%e5%8f%b8%e7%9a%84/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 29 Dec 2024 00:46:13 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AGI实现协议]]></category>
		<category><![CDATA[AGI标准]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI估值]]></category>
		<category><![CDATA[OpenAI困境]]></category>
		<category><![CDATA[OpenAI年终奖计划]]></category>
		<category><![CDATA[OpenAI新压力]]></category>
		<category><![CDATA[OpenAI未来发展]]></category>
		<category><![CDATA[OpenAI盈利]]></category>
		<category><![CDATA[OpenAI盈利挑战]]></category>
		<category><![CDATA[OpenAI股票]]></category>
		<category><![CDATA[OpenAI股票估值]]></category>
		<category><![CDATA[OpenAI行业压力]]></category>
		<category><![CDATA[OpenAI资金问题]]></category>
		<category><![CDATA[OpenAI转型挑战]]></category>
		<category><![CDATA[公益性公司治理]]></category>
		<category><![CDATA[公益性公司股东]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型盈利模式]]></category>
		<category><![CDATA[山姆奥特曼]]></category>
		<category><![CDATA[年终奖]]></category>
		<category><![CDATA[微软]]></category>
		<category><![CDATA[微软AI计划]]></category>
		<category><![CDATA[微软云服务]]></category>
		<category><![CDATA[微软合作]]></category>
		<category><![CDATA[微软合作条款]]></category>
		<category><![CDATA[微软技术协议]]></category>
		<category><![CDATA[微软技术独占]]></category>
		<category><![CDATA[微软未来计划]]></category>
		<category><![CDATA[微软权利]]></category>
		<category><![CDATA[微软独占权利]]></category>
		<category><![CDATA[微软独家协议]]></category>
		<category><![CDATA[微软股份]]></category>
		<category><![CDATA[扎克伯格]]></category>
		<category><![CDATA[技术使用权]]></category>
		<category><![CDATA[收益分配]]></category>
		<category><![CDATA[期权兑现]]></category>
		<category><![CDATA[梅塔]]></category>
		<category><![CDATA[特拉华公益公司]]></category>
		<category><![CDATA[特拉华法律]]></category>
		<category><![CDATA[特拉华法案]]></category>
		<category><![CDATA[独家云计算]]></category>
		<category><![CDATA[盈利模式]]></category>
		<category><![CDATA[科技行业领军]]></category>
		<category><![CDATA[老股出售]]></category>
		<category><![CDATA[职业经理人]]></category>
		<category><![CDATA[股票期权]]></category>
		<category><![CDATA[行业发展]]></category>
		<category><![CDATA[行业投资]]></category>
		<category><![CDATA[行业竞争]]></category>
		<category><![CDATA[行业舆论压力]]></category>
		<category><![CDATA[行业规则]]></category>
		<category><![CDATA[行业资产估值]]></category>
		<category><![CDATA[行业领军公司]]></category>
		<category><![CDATA[行业龙头难题]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[谷歌竞争]]></category>
		<category><![CDATA[谷歌竞争压力]]></category>
		<category><![CDATA[转型架构]]></category>
		<category><![CDATA[软银]]></category>
		<category><![CDATA[软银投资战略]]></category>
		<category><![CDATA[软银收购]]></category>
		<category><![CDATA[软银资金注入]]></category>
		<category><![CDATA[通用人工智能]]></category>
		<category><![CDATA[通用人工智能盈利]]></category>
		<category><![CDATA[非盈利VS盈利]]></category>
		<category><![CDATA[非盈利利益冲突]]></category>
		<category><![CDATA[非盈利盈利冲突]]></category>
		<category><![CDATA[非盈利组织]]></category>
		<category><![CDATA[非盈利结构调整]]></category>
		<category><![CDATA[马斯克诉讼]]></category>
		<category><![CDATA[马斯克起诉]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1802</guid>

					<description><![CDATA[大家好啊，今天要和大家聊的是一个绝对让人热血沸腾的话题——山姆·奥特曼💥要为OpenAI解套啦！！在2024年底，这个大家都在关注的AI巨头又将迎来怎样的转折呢？🤯

首先，咱们得从“攘外必先安内”说起！OpenAI居然选择通过「卖老股」的方式来给员工发年终奖！听上去是不是有点疯狂？😱但是，这正是为了稳定内部团队，避免人才流失，简直是绝对的高招！💪

你想啊，虽然OpenAI现在还在亏损，但老员工的期权和股票下放，竟然能让他们有机会变现！💸这样一来，所有员工不仅能安心工作，还能激励他们继续为公司奋斗。真的是一招拯救！👏

接下来，OpenAI正在计划从非盈利组织转型为特拉华公益性公司！这个操作简直就像是在做一场华丽的变身。✨你知道吗？这样的转型意味着他们可以在追求利润的同时兼顾公众利益，真的是拓宽了公司的发展空间！😍

当然，这一路上并不好走，马斯克的官司、微软的压力……都是他们必须跨越的坎儿。💔但是，在这么多的挑战面前，我们的山姆·奥特曼依然坚持着他的理想和愿景。💪

最后，我想说，技术的发展永远是为了造福人类，而OpenAI则是这条路上的引领者！🔥希望大家能持续关注他们的动向，未来一定会有更多精彩故事等着我们！💖

如果你觉得这个话题吸引，请给我点个赞，关注我，咱们一起期待OpenAI的下一个精彩瞬间吧！✨再见啦，家人们！👋

OpenAI的解套之路：从非盈利束缚到特拉华公益公司的背后博弈

OpenAI正走在从非盈利组织架构到特拉华公益性公司转型的复杂道路上。山姆·奥特曼带领团队以年终奖稳定军心，同时面对微软、马斯克与行业巨头的多方阻力，展开了一场以"攘外必先安内"为核心的谈判和诉讼博弈。从软银资本接手老股，到非盈利组织改制成为股东，再到与微软的独家协议博弈，OpenAI在2024年底的这一系列行动展示了科技企业在通用人工智能(AGI)开发、商业模式创新与行业领导地位之间的权衡。最终，特拉华公益公司成为开放与盈利的平衡点，微软、大模型、特拉华公益公司、OpenAI股东等关键词由于其事件热度也值得重点关注。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="OpenAI的解套之路：从非盈利束缚到特拉华公益公司的背后博弈" width="900" height="506" src="https://www.youtube.com/embed/rwfSD-Kh8_M?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>山姆奥特曼开始给OpenAI解套了。全世界的人都在关注一个问题，就是OpenAI这样的一个AIGC里边领军人物，到底如何从非营利组织这个套里边解出来。在2024年的年底，这个事情终于开始有了进展。</p>



<p>大家好，欢迎收听老范讲故事的YouTube频道。咱们今天来讲一讲到年底了，OpenAI到底如何解套的事情。那么OpenAI这样的一个公司，在解套之前，肯定要先做一些准备工作。什么呢？“攘外必先安内”，这个怎么个做法？发年终奖嘛。</p>



<p>只是OpenAI的年终奖发的方式呢，稍微有一点点奇怪。他呢是通过卖老股的方式来发年终奖的。你说我现在OpenAI挣了一堆钱，给大家分一分？没有，OpenAI还在亏损，而且每年亏的还很厉害。但是呢，他招聘的时候发了很多的期权和股票出去。那么现在说：“哎，我们允许这些老员工可以卖掉一部分。”这样的话就可以稳定军心。</p>



<span id="more-1802"></span>



<p>因为前面也不断的在传出来，OpenAI的这些创始团队也好，或者是他的一些比较关键的人物也好，不断的在离职。原因也很简单，你OpenAI作为行业老大，所有想在这一块做投资或者想去做创业的人，那就去挖人呗。这个事你自己又给不出那么多的薪水来，虽然OpenAI自己给的薪水还算是比较高，但是呢，很多的这个员工里拿到的还是员工薪资，其他的部分实际上是用OpenAI的股票来去兑现的。</p>



<p>但是这个股票我又不上市，你没有变成这个盈利公司之前，非盈利组织是不能上市的呀。怎么能够显得出你的工资比别人高呢？别人来挖你的时候，你怎么能够说我留在这里不走？这个就要让大家去定期的卖老股。</p>



<p>那么现在有谁来接这个手了呢？软银。前面他投资了5亿美金，也就是在OpenAI前面66亿美金融资估值达到1,570亿美金。那一轮里头给了5亿美金，孙正义说不够，咱们继续来。继续来怎么办呢？他拿了16亿美金出来说：“我来收老股。”按照1,570亿美金的那个价格。而这数怎么算呢？咱们不要老想着说……</p>



<p>我去分股票了，或者说我到一个新的公司里边去，跟人去谈这个期权的时候，老惦记谈这个百分比。你给我1% 2%，这个是很难谈的。他们通常是什么呢？我按照多少钱给你，然后呢，最后会分成一个股数，就是整个的公司，比如说做出10亿股、20亿股来这样的一个数，然后呢，每一股多少钱。现在达到1,570亿的估值的时候，那么他每一股是有一个单价的。在里边去上班的人，就可以按照当前的这个单价，把这个股票卖给孙正义了。但是能卖多少呢？因为OpenAI早期的员工，肯定手里边分到的这些股票是比较多的。他也是有规定的，两年以上的期权才可以卖。你今年新来的，这事跟你没关系；去年来的也跟你没关系，一定要手里拿了两年以上的，才可以去搞这个事情。优先保障在职员工，然后呢，才是离职员工。就是说你离职了，手里拿着这股票，你也可以去卖，比如说像伊利尔这样的人，他也可以卖。他呢，就是可以保底卖200万美金的，如果别人都不卖了，你可以接着卖，最大上限是可以卖到1,000万美金一个人。</p>



<p>比如我们现在都想去多卖一点，这个时候就会出现超售的情况，就是每一个人愿意去出售的股票，加一块呢，比这个16亿美金多了。那怎么办呢？要优先满足在职员工的要求。但是在职员工到头允许卖1,000万美金，但是呢，你也要保证离职员工每个人呢，最少可以卖到200万美金出来。这就是他这一次给大家发钱，发完了钱以后，该要后边投票的时候，该去表决心、表忠心的时候，大家屁股一定要正。这是攘外必先安内做的第一件事。</p>



<p>然后他们就要开始去解这个套了，从非营利组织调整成叫特拉华公益性公司。特拉华是州的名字，特拉华州因为他有平权法案，他自己内部就是注册公司，以及公司相关的法律法规呢，运行效率很高，而且他的法律规定的也相对比较完善。所以美国大量的公司都是注册在特拉华州的，包括原来的特斯拉，只是后来马斯克因为特拉华州平权法案给他把薪水判没有了，所以把公司搬到德州去了。</p>



<p>特拉华州专门有一种公司，叫做特拉华公益性公司。因为正常的股份制公司，其目标是很明确的，也比较简单，就是为股东挣钱。他没有什么别的想法。虽然你说我可以有一些社会性、公益性的东西，但你一旦跟股东利益相冲突了，你就老老实实要去给股东挣钱。</p>



<p>但是这种公益型公司呢，它是要求你可以进行平衡。在给股东挣钱的时候，同时还要去涉及一定的公共利益。他原来的状态是，OpenAI最上面是个非盈利组织，然后下面所有的OpenAI的盈利公司，也就是微软一波一波往里给钱，孙正义往里给钱的这公司，实际上是这个盈利性公司。但是他的整个运作，他的CEO怎么去聘用，他自己的董事会怎么去运转，这个都是由上面非盈利组织说了算。</p>



<p>以前是这么去一个运作方式，但非营利组织自己又没有别的事干，就天天给下面营利的公司找事。我看你这不顺眼，看你那不顺眼，就开始搞这样的事情。这个没有办法，就跟原来说的，男人有钱就犯错误，女人有功夫就犯错误。非盈利组织这帮人就是有功夫，你又没有自己的钱，也没有自己的事情要做，那就天天给你挑刺儿。</p>



<p>所以他原来整个的运转出现了很多问题，包括在去年11月份，突然把山姆·奥特曼干掉这个事情，都属于非盈利组织跟盈利组织之间的一些冲突的体现。特别是在OpenAI大模型的对齐和安全方面，这两边是有巨大的矛盾。因为非盈利组织总是希望说，我们怎么能够对人类好，怎么能够让社会得到好处，怎么能够预防各种的问题，而盈利组织就是我怎么能够挣到钱。因此，他们两边的矛盾在对齐以及审核安全这块是尤为突出。</p>



<p>现在，OpenAI还去签了一个很奇葩的协议条款。在前面拿了66亿美金融资的这一轮，他签了一个什么呢？就是如果两年之内我没有办法把我的非盈利组织这个架构改掉，那我现在拿到的所有投资就重新转回成债务，我要还钱。他变成这样的一个状态了。大家知道。</p>



<p>这个投资进去的时候有很多种模式。有的一种模式是债务，就是你到点按利息给我还钱就完了。还有一种呢，就是按股份。正常的咱们讲，谁谁谁拿到投资了，都是股份。那股份的话，责任有限，最后实在不行了，你就这个认赔就完事了。或者说公司发展的很好，一下涨得很快，投资人就可以挣到很多的钱。而债务的话，就是最后还钱。而如果你的公司正变得很有钱，非常非常有价值的时候，他拿到的钱也不会变多，也是按照你欠的债，加上利息还回来就完事了。</p>



<p>所以对于OpenAI这样的公司来说，如果没有办法去转成盈利性公司的话，他就要还钱，这个股份就变债了。那是这样的一种玩法，这个比较少见。像我们以前就可转债多，就是先借钱，钱还不上了，转股份这个比较多。先投资，没有达成什么条件，然后转成债，这个不是那么常见的一种玩法。但是你对于一个每年赔很多钱的公司来说，这个66亿美金直接转成债务，让他还钱的话，这公司直接就崩塌了，就不会有任何结果的。</p>



<p>即使是以OpenAI现在的运作状态，他们预期是到2029年可以去盈利，今年是2024年，过了几天就2025年了，这至少也得四五年以后他才能盈利。如果两年之内你没有办法转成盈利性公司，把这个上面的非盈利组织给脱壳的话，那他就只能是死掉，没有任何其他的出路。</p>



<p>咱们再讲一下特劳华公益性公司吧。就是他现在呢，已经准备向这块去转移了，虽然还有很多困难。但是特劳华公益公司呢，就是要求股东和相关方以及公共利益之间相互平衡，要求公开宣言其所关注的公共利益。你比如说我们成立了一个特拉华公益性公司，那我一定要讲我是环保，我是这个人权，或者其他的一些什么样的事情，我要去有一个目标出来。这个事你不能说我自己知道就完了，这得跟别人说，别人还得要监督你。</p>



<p>对于OpenAI来说呢，他们的公益性目标就是，全人类可以从通用人工智能中获利，也就是说全人类可以从AGI中获益，这就是他们的目标。</p>



<p>就是一旦变成这种公益性公司呢，相对来说会灵活很多。你说我多做了一点，少做了一点，或者 open 了还是 close 了，这个他自己说了算。别人就算是说想去指责他，这个也不是那么容易把他告倒的。但是你还是得说，咱们熟悉的还有哪些公司是特拉化公益性公司呢？Anthropic，它也是一个特拉化公益性公司。那你说 XAI 是不是？XAI 不是，XAI 是内华达州的盈利性公益企业。它呢，其实也是这种平衡性的，就不是完完全全的去这个为股东挣钱的一个公司。就 XAI 也是这样的一个类似的公司吧，只是呢它在内华达州，它不在特拉华州，就差距在这儿。</p>



<p>那么对于 OpenAI 来说呢，现在解套肯定是非常麻烦的。不是说今天大家一投票，把公司里边人这个钱一分，大家就可以投票支持，我们就可以转过去了，没有那么容易。第一个呢，就是它这个非盈利组织呢，你不能说我直接给你解散了就完了。它要重新定位这个非盈利组织，那怎么个重新定位法？它原来的位置是在最上面，非盈利组织在上面，然后呢盈利性公司在下面，由非盈利组织控制盈利性公司。现在呢，它要换一个方式，什么呢？就是它由这个特拉华公益性公司在最上面，然后下面呢，非盈利组织还要依然存在，但是呢它会成为公益性公司下面的一个股东。你可以分到自己的钱，拿着自己的钱去忙活自己的事情，比如说安全呀医疗，为人类做贡献呀，你就拿着这个钱去花就完了。他会变成这样的一种方式。</p>



<p>至于公益性公司里边的这个事情，你就别管了。你可以作为股东有一定的权利，你可以投票，但是别的事情呢，今儿把 CEO 干掉了，或者我不去顾及任何其他股东的权益，我就可以自己去做很多决定，就不要干这个事。像去年把山姆·奥特曼干掉了，那里边微软什么直接说傻了。他说我虽然是股东，但是我并不是最上面那个非盈利性组织的股东。但是这个非盈利性组织一下上来，就把这公司的 CEO 干了，这个他们是不能接受的。按照这个方式去转移的时候。</p>



<p>这个里头就有一个问题，什么呢？这是原来的非盈利组织。从拥有一切的这个非盈利组织，到下面成为这个公益性公司的一个股东的时候，他到底占多少？他所拥有的这些资产应该如何去估值？这个事呢，就很麻烦。现在呢，OpenAI还说，我们自己也说不清楚这事。咱们找一个第三方、中立的这种财务机构，咱们去测算一下吧。但是这个过程呢，应该还是有的皮可扯了。因为原来人家拥有100%，现在你变成了下面的一个股东，这个钱很难算清楚。</p>



<p>然后呢，还有人在告他。马斯克还在起诉OpenAI，起诉的目的呢，就是禁止OpenAI摆脱非营利组织的限制。这个官司还没打完呢，而且马斯克现在也是风头正猛的时候。你在这种时候，怎么能够摆脱这个官司，能够让法院批准，说“哦，我现在去转换，从非盈利组织到这个公益性公司的这个过程是合法的”？这个也需要慢慢的拖。而且刚才我们讲了，拖过两年公司就挂菜了。</p>



<p>不光是马斯克在诉讼，梅塔现在也公开表示支持马斯克，并且致信加州政府，希望阻止OpenAI摆脱非营利组织的限制。这个后边还有人在这使坏呢。我估计如果谷歌上的话，他们也会使这个坏的，因为OpenAI是排头兵嘛，剩下所有人肯定没有一个惦记他好的。这是给他很多的阻力。</p>



<p>然后还有一个很大的阻力是来自于哪呢？来自于微软。你说微软在里边占了这么多股份，你没有办法变成盈利性公司，没有办法去上市的话，那这个股份怎么去回收呢？这个对于微软来说，他肯定希望能够摆脱非盈利组织的控制，这个没有任何问题。但是呢，有一个很大的矛盾是什么呢？微软现在到底占多少股份？你变成这个非盈利公司了，你到底怎么算？因为现在微软在他盈利公司里边占的股份是应该接近50%，就差那么一点点，就到50的这么一个状态。如果再说多省出点钱来，或者有点什么幺蛾子，微软直接控股。而且微软在这个OpenAI里是有很多的这种一票否决权也好，或者说这种特殊权利的。那么一旦变成了公益型公司了。</p>



<p>那么其他的人再去投资的时候，就会看说：“哎呀，这么多权利都给微软了。”这就是微软自己随时惦记吞并的一个项目。那么我们再投资进去，还能不能把钱挣回来？他也需要解决这些问题。而且微软的很多条件是非常非常苛刻的，这个也是OpenAI希望通过这一次的调整，能够部分地摆脱微软的制约。但是微软肯定不希望说：“我谈了这么好的条件，花了这么多钱，把你养了这么大，然后你想摆脱我的控制。”微软肯定是不乐意的，这个也是对于OpenAI转换身份的一个巨大阻碍。</p>



<p>如何摆脱微软的控制，这是OpenAI现在真正需要去思考的问题。而这个问题的关键呢，比较奇怪，这个问题的关键在于到底什么是AGI。为什么呢？他签的那个协议是说：“我给微软一大堆权利，但是这个权利到什么时候截止呢？”就是等我把这个AGI实现了，就是通用人工智能一实现了，这个事就截止了。我看网上还有一些人说：“这OpenAI随时就可以宣布，我今天宣布实现了，明天宣布实现了。”那这个微软这些权利不就没了吗？这个微软也不傻，微软要求的AGI跟OpenAI之间是达成了一个协议的，要达成这个标准其实并不容易。</p>



<p>在咱们讲这个微软跟OpenAI之间确认的AGI协议这个标准之前，咱们先看看微软到底有啥权利，导致OpenAI这么痛苦。第一个叫技术使用权，就是你OpenAI做的各种技术，我要去用。甭管咱们现在是在Windows、Office，还是在GitHub的各种各样的Copilot里头，咱们使用的这些技术实际上都是OpenAI的。那么微软是签了这样的一个协议，我就可以直接用。而且用的时候呢，我还可以向你提意见，你就给我改一下。</p>



<p>第二个是什么呢？就是收益分配。微软说了：“我把钱给你了，我也知道你是亏钱的，但是呢，你的所有销售额，我抽20%走。”至于其他你怎么在亏，跟我没关系了。这个其实是很难受的，因为很多的我们讲，利益分配，咱们都是分的利润。</p>



<p>就是你要把成本刨了去，剩了多少利润，以后大家再去分。微软这个协议签的是，我不管你有没有利润，我不管你有没有盈利，我抽销售额。你只要是销售额出去了，20%归我。2024年OpenAI的销售额多少钱？40亿美金。那么这个里头的28亿美金拿走，微软是挣到钱了。至于OpenAI自己的话，那这个就惨了。今年我估计应该至少赔了，可能弄不好四五十亿美金都是能赔进去的，然后还要给微软8亿美金。这个他是觉得咱能不能再商量商量，这个有点痛苦。</p>



<p>还有什么呢？独家云计算供应商，这个是微软直接签的协议。你只要OpenAI用，服务器必须在微软云上用。但是现在呢，微软的云好像又不是那么给力，动不动就直接崩菜。这两天好像又崩了一次。前几天在发布Apple Intelligence的时候，微软云就崩了很长一段时间。最近呢，他因为宣布Sora可以给大家免费开放使用或者不限制的使用，他又崩了一次。</p>



<p>OpenAI也很委婉地说我的云计算上级服务商崩菜了，因为它独家嘛，所以呢说的是谁，大家也都心里清楚。这块呢，OpenAI也希望能够解脱这个禁锢，说我能不能用点谷歌的，能不能用点亚马逊的。别回头单点故障，单点故障就是说一个点坏了以后，其他都没法整。如果我有点谷歌的服务，有点亚马逊的服务的话，万一你微软崩塌了，那两边倒还可以把这事顶上。</p>



<p>因为现在OpenAI的崩溃，对于整个社会来说都是巨大的灾难性的，就跟咱们断网、停电的一个过程是一样的。很多写论文的人，写公文的人，一旦OpenAI崩塌了，就没法上班了，可以直接放假了。</p>



<p>微软还有什么样的权利呢？这个优先合作权，你有什么事要合作了，微软优先得到合作。知识产权相关的权利，尤其是一些衍生性的知识产权，从OpenAI再衍生出来的，其他知识产权，微软也都有权去使用。最后呢，就是信息获取，OpenAI里头在干什么，你得告诉我。你不告诉我，自己偷偷干这个事是不允许的。</p>



<p>这就是微软拥有的这个权利。这个权利设定的时候通常是有限制。刚才我们讲了，实现AGI的时候就中止，这就是它的条件。那么AGI到底是怎么算实现的？马斯克也说，GPT-4就算是AGI已经实现了，所以这个微软的权利应该终止。这是马斯克在起诉的时候的一个诉求，但这事肯定不行吧？</p>



<p>OpenAI呢，也不是说自己随时宣布说这个AGI实现了就可以实现的。微软跟OpenAI呢签了一个协议，他说你什么时候，靠人工智能能够挣出1,000亿美金的利润来，这个AGI就算实现了。用了一个非常笨、非常朴素的方式来去定义了AGI，就是你挣出1,000亿美金的利润。而以现在OpenAI每年还赔个几十亿美金的这个速度来看，就算他到2029年可以盈利，你要想让他挣出1,000亿美金的利润来，好像还稍微有那么一点点遥远。</p>



<p>在这样的一个情况下，这个套到底怎么个解法呢？都限制死了呀。微软也不能让他解这个套，解完套以后他后面还有很多的权利不能给他。上面的这个非营利组织，也不可能让他随随便便就把这套解了。你到底给我算多少股份，这个事你也说不清楚。马斯克那边还有官司在那打着，那这OpenAI不是两年必死吗？</p>



<p>这个呢就属于典型的打工人的思路。打工人思路是什么呢？就是遵守规则。这么多规则其实已经完现实死了。但是呢，我觉得大家也不用太担心。对于像一个行业的领军公司这样的这个位置来说，大家呢还是可以依靠对愿景的沟通进行谈判。在这个过程中呢，相互妥协，最后达成一个结果。而且呢，在这个里边，特别像微软这样的公司、谷歌这样的公司，他们还是要注重商誉的，因为谁也不愿意去背负说我把行业龙头老大掐死的这种罪名。这个事实在是太沉重了。</p>



<p>还是希望说大家一起挣钱，让整个的行业往前发展。但是注意，这个里头我没有讲到马斯克，也没有讲到扎克伯格的梅塔。这是两个创始人，甭管是谷歌也好，微软也好，包括亚马逊也好，创始人都退居二线了。</p>



<p>现在都是职业经理人在管。这些人呢，通常还是会有一定的打工人思路，或者说他们会守一定的规则，会讲一定的规矩在里面。但是创始人，他未必守这个规矩，特别像马斯克、扎克伯格这样的。所以他们还是有可能会按着他去狠咬。在这个过程中的话，我相信还会给我们提供很多很多新的故事，让我们能够把这个瓜继续吃下去，把这个故事继续讲下去。这就是山姆·奥特曼在2024年年底，为了OpenAI能够从非盈利组织这个架构里边解套出来，正在做的努力以及面对的困难。</p>



<p>好，这期就跟大家讲到这里，感谢大家收听。请帮忙点赞，点小铃铛，参加Discord讨论群。也欢迎有兴趣、有能力的朋友加入我们付费频道，再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
