<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI监管 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/ai%e7%9b%91%e7%ae%a1/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Sun, 07 Sep 2025 00:40:27 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>AI监管 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>别只当成科技八卦！Anthropic反华禁令背后的意识形态挂帅 vs 商业求生｜Anthropic Chinese-Owned Firms AI Services Ban Claude AI</title>
		<link>https://lukefan.com/2025/09/07/anthropic-china-ban-ai-safety-competition/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 07 Sep 2025 00:40:27 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI价值观]]></category>
		<category><![CDATA[AI出口管制]]></category>
		<category><![CDATA[AI地缘政治]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI服务限制]]></category>
		<category><![CDATA[AI监管]]></category>
		<category><![CDATA[AI编程]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[Anthropic对华禁令]]></category>
		<category><![CDATA[Claude AI]]></category>
		<category><![CDATA[Claude中国]]></category>
		<category><![CDATA[Claude封号]]></category>
		<category><![CDATA[Dario Amodei]]></category>
		<category><![CDATA[中美AI竞争]]></category>
		<category><![CDATA[中资企业]]></category>
		<category><![CDATA[国家安全]]></category>
		<category><![CDATA[大模型封禁]]></category>
		<category><![CDATA[大模型竞争]]></category>
		<category><![CDATA[字节跳动Claude]]></category>
		<category><![CDATA[有效利他主义]]></category>
		<category><![CDATA[模型蒸馏]]></category>
		<category><![CDATA[科技制裁]]></category>
		<category><![CDATA[美国AI政策]]></category>
		<category><![CDATA[股权穿透]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2514</guid>

					<description><![CDATA[🔥Anthropic对中国下死手？新规直接封杀中国资本！原因笑到裂开😂

老铁们，Anthropic刚扔出王炸：中国控股超50%的公司？Claude服务立刻停用！OpenAI、谷歌都只敢说“监管不让”，它却指名道姓骂中国是“威权地区”💥 更离谱的是——CEO达里奥在百度干过一年，传说被莆田系广告坑出心理阴影？🤯 “百度，你到底咋整的他？！”

商业真相更扎心：Claude号称编程界顶流，结果中国程序员直接搞“对口型大赛”！Kimi、Deepseek疯狂仿真API，1/10价格吊打它😱 全球40%程序员是华人，Anthropic却自断后路？笑死，没华人它连IDE都跑不动！

这波操作纯属作死：意识形态狂魔+商业脑瘫，迟早被收购 or 消失。兄弟们，点赞支持中国AI反杀！👇 评论区聊聊：你被Anthropic封过号没？#科技吃瓜 #AI内卷真相

意识形态挂帅 vs 商业求生：最严禁令惊人真相，并非科技战，而是核心产品被“釜底抽薪”后的绝地反击｜Anthropic Chinese-Owned Firms AI Services Ban Restriction

Anthropic突然发布对华最严禁令，远不止是简单的科技新闻。本期深入剖析这一Ban背后的双重动因：一方面是CEO家族深受“有效利他主义”影响的强烈意识形态；另一方面则是其核心AI Services正面临商业绝境——其王牌产品Claude AI被Chinese-Owned Firms通过API模仿等方式釜底抽薪。这究竟是价值观的坚守，还是一场关乎生存的自保反击？]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="别只当成科技八卦！Anthropic反华禁令背后的意识形态挂帅 vs 商业求生｜Anthropic Chinese-Owned Firms AI Services Ban Claude AI" width="900" height="506" src="https://www.youtube.com/embed/n7tWzKl5_sM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>千万不要把这事当成又一条科技八卦。Anthropic突然发布的最严对华新规，背后的原因和影响，比大家想象的要复杂得多。</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>9月5日，Anthropic发布了最严对华新规，要求什么？立即停止向中国资本控股50%以上的集团及其子公司提供Claude服务。字节跳动的Trae海外版，不知道还能不能继续用Claude了。字节跳动的Trae国内版肯定是不让用Claude，但是海外版的主力模型就是Claude Sonnet 4、Claude Sonnet 3.7、3.5什么这样的模型，这个以后估计就悬了。</p>



<p>这项政策的显著特点，是采用了股权穿透原则，即不仅针对中国大陆的公司，还包括那些在海外注册，但由中国实体直接或间接控股超过50%的企业。</p>



<p>国际上这些做AI的大厂呢，其实都不让在中国使用。像OpenAI、谷歌、xAI，他们的服务在中国都是没法用的。OpenAI在这里头还稍微有点特殊，因为它的服务可以通过微软云在中国境内落地，所以它相对来说还比较宽松一点点。山姆·奥特曼在2023年还跑到中国来过，当时还讲说希望跟中国一起来探讨AI治理的事情。</p>



<span id="more-2514"></span>



<p>即使是不能在中国落地的这些产品，通常呢也只是说因为监管或审核原因，也没有想什么其他东西。xAI的话甚至压根就没有禁用名单，虽然你在中国大陆使不了xAI的产品，但是你依然是可以用中国大陆的信用卡去充值的。OpenAI是不允许用中国大陆信用卡充值的，谷歌、xAI应该都没什么限制。</p>



<p>Anthropic这一次呢，就属于比较特立独行了。你说别人都不让使，他也不让使，为什么他就特立独行了呢？是不是因为股权穿透呢？不是这样的，他解释的原因比较奇葩。因为审核原因、因为监管原因，我不让你使也就拉倒了，他讲的是什么呢？</p>



<p>“受中国等威权地区控制的公司面临法律要求”，他首先呢给中国做了一个定义，叫“威权国家”。“这些要求可能迫使他们共享数据、与情报部门合作或采取其他行动，从而产生国家安全风险。而且无论这些国家在何处运营，或公司中个人的个人偏好如何，这些要求都使公司难以抵抗这些压力。”这个应该讲的是国安法，它要求一定要无条件配合。在这个里边，避免中国通过模型蒸馏等手段，借助Anthropic的技术来发展自身AI。</p>



<p>它算是首个美国主要AI公司公开实施的全面禁令，这个跟上面那几家的差异就在这了。人家随便写一个监管、审核就完事了，他是真的指名道姓地杀上来打脸来了。当然了，不光中国，这个里头还有俄罗斯、朝鲜、伊朗等国也都在范围之内。</p>



<p>Anthropic是一贯反华。其他的都是属于“我是公司，我遵守各国法律，法律不允许的我就不做”。比如说中国法律也要求他进行一些审核报批，我也不费这个劲了，所以我们就是遵守法律，我不歧视任何的人、任何的国家政权。但是呢，Anthropic就属于一贯地反华。在Deepseek发布之后，第一个跳出来，而且跳得最欢的就是他们。</p>



<p>其他几家呢，像谷歌其实啥也没说；xAI马斯克那边就是抓紧地买显卡，自己去干活去了；OpenAI呢看了看说：“我觉得还有差距，这个也有一些可取之处，我是不是稍微改一下方向？我们也要去把COT（也就是思维链）给大家公开出来，而且呢我们也要开始向开源的方向再稍微地挪一挪。”这是OpenAI的这种论调，老大嘛，你总要稍微稳重一点。但是Anthropic就当时直接跳出来说：“威胁了，这事不行了！”</p>



<p>而且呢，Anthropic一直是公开强调中美竞争的，多位高管在公开场合将中国视为AI领域的竞争对手乃至威胁。2025年4月份公布的《人工智能扩散框架意见书》里头，他们还专门地表过态。这个意见书呢，是针对美国商务部《人工智能扩散框架》的一个回应。当时呢，美国商务部写了这样的一个文件，说：“来，你们各个各家看一看，给我写个回信回来。”他们就写了一个。在这个回信里头，要求进一步加强对华出口管制，特别提到了说美国政府禁用了H20，这个是非常好的，以后应该再进一步再多禁一些。</p>



<p>这里呢要强调，是美国政府先封禁的H20，Anthropic出来附和一下，并不是Anthropic倡导了说禁H20然后就把它禁掉了，这要稍微讲一下前后顺序。黄仁勋呢肯定出来怒批嘛，他惦记做这个生意呢。黄仁勋在5月13号的声明中表示，控制AI对华出口的限制政策，反而将阻碍美国的竞争力，中国在AI领域进展迅速，限制无法阻挡。</p>



<p>而另外一点，Anthropic是所有的美国AI平台里头封号封得最严格的一个。不停地有人在抱怨：“我的Anthropic的账号被封了！”美国这些平台，OpenAI、谷歌、GROK，我们也都上去使去，但是我从来没有注册过Anthropic的账号。原因很简单，它经常会因为你的IP地址不对，或者你的IP地址经常发生变化，直接把你账号封掉，这个是非常非常讨厌的。我不希望自己花的钱直接打水漂了，所以我从来没有注册过他们家的，甭管是Plus账号，还是API的Token账号，从来都没注册过。</p>



<p>Anthropic为什么反华呢？网上呢，流传了一些梗，咱们就开心地听一下。他的CEO呢，叫达里奥·阿莫戴伊，是一个意大利人，原来是主要从事学术和研究，读博士然后读博士后，上公司上班的。第一份工作就是在百度，在百度呢干了大概是一年吧，或者差几个月一年的一个时间。当时呢也没到中国来，是百度在硅谷呢有一个研究中心，应该在2014年、2015年的时候。那个时候其实中国各大的互联网公司都在硅谷建研究中心。</p>



<p>达里奥·阿莫戴伊呢，当时是吴恩达的手下。吴恩达应该是在百度还多混了几年，应该是在达里奥离开百度之后的几年才离开百度的。达里奥在百度期间呢，算是有了一个初始的想法：scaling，就是规模法则，只要不断地扩大规模，就会得到意外之喜。他这个想法就是在百度产生的。在百度呢，参加开发了叫DeepSpeech 2的一个语言识别系统，这个系统呢是《麻省理工科技评论》评为2016年十大突破之一，所以他在百度还是做出贡献来的。</p>



<p>就有人很多人开始猜测了：“达里奥·阿莫戴伊在百度期间是不是受了什么心理创伤了？”“百度，你到底咋得罪这位老哥了，让他出来以后这么反华？”他一般情况下，一个人结束了学术生涯，进到公司里头以后，第一份工作应该会对他整个后面的生涯产生巨大影响。你怎么就培养了这么一个反华急先锋呢？</p>



<p>有人传说呢，是百度的变现和商业模式实在太恶心，刺痛了达里奥。也有人呢去传闻了，但这个就没有什么依据了，说达里奥是不是误信了百度的一些医疗小广告，然后对身体造成了一些不可逆的伤害。这个其实扯淡，因为达里奥从来就没有在中国工作过，你要想去信医疗小广告的话，你必须得在中国工作，他一直是在硅谷。所以呢，这个咱们当笑话听就完了。</p>



<p>百度和达里奥·阿莫戴伊呢，都没有在分手之后相互指责对方。但是呢，我相信达里奥在百度的日子一定混得没有那么开心。为什么这么讲？百度也肯定不喜欢达里奥，因为他的成果，也就是刚才咱们讲的叫DeepSpeech 2，这个得了奖的成果，并没有在百度内部产品化，也没有给百度赚到钱。百度自己后来强调自己在scailing law早期作出贡献的时候，也基本上没有提过达里奥的名字。你按道理说，有这么一位大神在你这儿上班，以后去了谷歌、去了OpenAI、创建了Anthropic，你应该与有荣焉一下才行。但“不，我们在这块我们也很厉害，这个人是谁不知道”，这百度基本上是这样的一个态度。</p>



<p>那么，Anthropic为什么反华？我们呢，从两个方面呢，稍微分析一下：一个呢就是意识形态方面，另外一个呢就是商业利益方面。</p>



<p>首先我们来看一下意识形态。咱们看一下达里奥的这个人生轨迹。他呢，前面都是上学和研究，他其实学生物学、物理学这些东西，他不是学CS的。但是呢，他加入百度以后，就开始进入到AI领域了。在百度待了一年左右吧，离开百度，加入了谷歌DeepMind，也就是说被谷歌挖走了。后来呢又离开了谷歌，加入了OpenAI。最后呢是离开了OpenAI，自己创立了Anthropic。</p>



<p>其实你们可以认为它是一个叫做“革命不彻底就是彻底不革命”的一个轨迹。怎么去理解这件事？就是你想，从百度到谷歌，变现上面呢要稍微地克制一些，百度那个变现基本上是不克制的，什么各种假药广告什么全上的这种东西。谷歌呢，还是自己要号称一下“不作恶”的，但是呢还是做了一些科技人才垄断方面的事情。OpenAI建立，其实就是为了反谷歌的这种AI霸权的。后来呢又因为跟OpenAI在安全领域，或者叫AI安全领域不合，说“我们应该做更安全的AI，而不是像OpenAI这样东西做出来就不负责任了”，所以他又从OpenAI出来去做了Anthropic。</p>



<p>所以呢，每一个前进的脚步都是道德要求越来越高的一个趋势。所以为什么我说他的整个人生经历，就是一个“革命不彻底就是彻底不革命”的人生经历。“百度你这不行，我找一个比你好点的，去谷歌了。”“谷歌发现你这也不行，那我们去创建OpenAI吧。”到了OpenAI以后发现：“你们这些人怎么又惦记赚钱去了？又没有好好地去为人类使命去奋斗了？”从OpenAI出来：“咱们再去创建Anthropic吧，这个才是最革命的！”这回终于我自己说了算了。</p>



<p>但是呢，你说这个里头有多反华，或者是对中国不友好呢？也没有那么多。真正搞意识形态的，其实并不是说达里奥·阿莫戴伊，而是他妹以及他妹夫，这两个人才是在这个里边起到关键作用的。</p>



<p>Anthropic里头的两个核心创始人是达里奥·阿莫戴伊和他的妹妹，叫丹妮拉·阿莫戴伊。他妹妹还受到他妹夫的影响，也就是叫做霍尔顿·卡诺夫斯基。这结婚了以后并没有改姓，也不是所有美国女性结婚了都要改姓的，特别是这些职业女性，他们结婚了以后不改姓是很正常的一个事情。</p>



<p>首先咱们来先讲一下达里奥的妹妹，丹妮拉·阿莫戴伊。她呢是个文科生，在美国学英文嘛，你就基本上认为是在中国学汉语这样的一个分类吧。毕业以后呢就开始参与政治，首先呢是在宾夕法尼亚州的国会竞选活动中去出力。在美国很多政治都是这样的，先参加到别人的这种竞选班子里头去，去做义工，在这个过程中呢，积攒人脉和经验。达里奥的妹妹就是从这儿起步的。成功以后呢，他就会跟着他选中的这个议员，或者帮助选中的这个议员呢，去华盛顿。她呢是短暂地担任了众议员Mate Catwright的通信主管，实际上也就是在下面帮他去收集民意、处理信件，做这样的一些事情。这个众议员呢应该是一位对华还相对比较温和的宾州民主党众议员。</p>



<p>做完这两件事情以后，就还是要去上班。因为如果他没有办法一直在政治圈里混下去的话，那就要找地儿去上班了。她去了哪呢？去了Stripe，就是很多人在海外做跨境支付的这个平台。她算是Stripe的早期员工。在Stripe期间呢，她主要负责跨境支付，与各种监管系统进行斗争。你想跨境支付嘛，你就需要跟不同国家的资金流动相关的监管系统去进行对接、博弈，要去做这样的事情。</p>



<p>从Stripe离开之后呢，就加入了OpenAI。加入OpenAI呢，是负责安全和政策相关的一个副总裁，还是老本行吧。她呢，深度参与了早期AI安全框架的搭建，负责平衡技术创新与风险防控的政策设计。“先进AI技术的发展必须内嵌安全基因，而非事后补救”，这就是她的一个核心观点。后来呢，OpenAI说：“我们现在继续走这条路的话不行了，我们一定要先去训练更好的AI，然后再去说怎么在后边做安全、做对齐，做这样的事情。”而丹妮拉的要求就是，我们要一开始就在里头设置安全基因。她呢2017年结婚，2021年呢离开了OpenAI。</p>



<p>她进入Anthropic以后呢，主要是负责安全框架设计、公共事务战略（也就是说跟政府打交道），什么都是他来管。前面去给这个政府写信，说咱们要继续加强对华控制，一般都是丹妮拉去写这个信呢，不会让达里奥去费这种劲，但是达里奥肯定会同意嘛。这个丹妮拉还会去做意识形态叙事相关的事情。这个事呢，在其他各大厂一般即使内部有，也不会对外宣诸，但是Anthropic这一块特立独行，它直接对外讲。</p>



<p>丹妮拉呢，将技术问题转化为价值观话题，在官方声明中屡次使用“民主利益”、“威权地区”等表述，构建了Anthropic技术服务于特定价值观的产品形象。</p>



<p>至于他妹夫，你想他妹的这些观点是哪来的？他妹的很多观点实际上是从他妹夫这来的。他妹夫呢，叫霍尔顿·卡诺夫斯基，这个呢是“有效利他基金会”的创始人，现在呢也是Anthropic技术团队成员，2025年加入的，主要负责安全相关事宜。</p>



<p>这个人的履历是什么样的呢？霍尔顿·卡诺夫斯基，他是哈佛的社会学学士，离开哈佛以后去了桥水基金，然后开始做慈善基金，后来呢创立了叫“有效利他基金会”。2017年到2023年，担任有效利他基金会的CEO和Co-CEO（Co-CEO就是还有另外一个CEO跟他一起合作，一起来做CEO的意思）。到2024年，霍尔顿呢去卡内基国际和平基金会做访问学者，主要研究AI安全策略。2025年加入了Anthropic。</p>



<p>咱们再稍微介绍一下有效利他基金会，以及有效利他基金会的一些基本宗旨，咱们也就看出来Anthropic这些宗旨是哪来的了。这个基金会的出资人叫达斯汀·莫斯科维茨，他呢是Facebook的一个联合创始人，他跟他太太两个人是主要出资人，而且签了协议说当我离世之后，我们的主要遗产都会给基金会，而不会把这些遗产留给子女。这个基金会呢募集了40亿美金，它呢主要是关注人类的长期未来，AI安全就是其中最重要的一个关注点。</p>



<p>核心理念呢，叫做减少“存在性风险”。什么是“存在性风险”？这也是一位著名的哲学家提出的一个理论，叫做“可能导致人类整体灭绝或永久性、不可逆地削弱人类长期发展潜力的风险”，这个东西呢叫“存在性风险”。他呢举了一些例子，比如说：全球核战争；失控的人工智能，中国的AI公司大多都被归类于这一类风险里头去了；大规模生物武器和流行病，他们对中国这方面呢也有指责，包括前面的疫情，这咱就不详细说了；然后气候变化造成的极端灾害性后果，中国是世界工厂嘛，人家肯定也会指责咱们；以及其他的全球性灾难性技术风险。</p>



<p>这个就是有效利他基金会的一个核心宗旨。所以呢我们可以看到，就是从意识形态上来说，霍尔顿，也就是CEO的妹夫，他呢做的这个有效利他基金会，就是Anthropic的所有的这些政策的一个最初始的出处，所有的理论知识都是从这儿来的。他的妹妹文科生，一直在研究AI安全；而CEO呢，受家人的影响，而且他的整个的人生履历也一直是“革命不彻底就是彻底不革命”的这样的一个路径。所以导致了他们在意识形态上非常非常反华。</p>



<p>再往后，咱们再讲一讲什么呢？就是Anthropic为什么反华，咱们在商业格局上再分析一下。你讲了半天意识形态，讲了半天政治，归根结底不都是钱吗？他在钱方面到底遇到了什么样的问题，一定要出来反华呢？</p>



<p>咱们这里就要看到，Claude这样的一个大模型，它的市场地位是什么。Claude跟其他的一些大模型不一样，它是最佳编程模型。就是办公或者是其他方面，可能OpenAI强一些，Gemini强一些，有些方面可能Grok的更强一些，但是编程这块它就是老大了。AI的所有能力上，它跟OpenAI、Grok跟xAI还是有巨大差距的。你比如说它在多模态上，这就相对来说比较差，虽然他审美还可以，你让他做界面设计还是OK的，但是他是没有这种绘画，或者是做视频、做音频，这些能力他是没有的。他主要就是进行文本和代码的一个处理。</p>



<p>全世界最主要的程序员和工程师团队是谁？是咱们华人，或者说是中国人。现在呢，网上一些不完全的统计，中国程序员大概占全球程序员的35%或者更多一些。因为呢，现在这种统计呢，没有办法特别完整，就很多国际上的统计是通过Stack Overflow或者是GitHub来统计的，而大量的中国程序员是不上这些网站的。所以按照这些口径去统计的话，中国程序员大概占35%，算上海外华人的话，这个比例大概是40%。所以全世界的程序员呢，大概将近小一半是中国人。在AI领域里头的话，这个数绝对过半了哈，你光写论文的这些人就可能超过一半了，在下头再写程序的这帮人，肯定中国人的占比是非常非常高的。</p>



<p>AI发展到现在，你前面比如说大家在卷模型、卷其他东西，但是现在呢，所有大厂包括中国公司都在卷AI编程这一块。刚才咱们讲了，Anthropic的核心竞争优势就是编程。但是现在说：“我们现在模型能力已经上来了，咱们就卷这一块了。”</p>



<p>OpenAI出了Codex，最近还专门收购了一个编程和产品优化的工具，11亿美金刚收的。谷歌呢是最近刚推出了Gemini Code Assist，也收购了Wizeline，也是专门的编程IDE的工具。xAI呢最近刚刚推出了Grok CodeFast，就是Grok的快速编程模型，这个模型现在效果也非常非常好，速度很快还挺便宜。</p>



<p>中国各大厂，字节跳动最早上来做了叫Trae这样的一个AI IDE；阿里呢前面做了通义灵码，最近呢还专门发布了叫Qwen-Coder吧，这样的一个AI IDE；腾讯呢做的叫CODE BUDDY的一个IDE。大家都在卷这一块。</p>



<p>从模型角度上来说呢，月之暗面出了叫Kimi K2；千问呢直接出了叫千问-coder；Deepseek也是说我们做Deepseek V3.1；智谱呢做了GLM 4.5，都是直接对标Claude大模型的，说我们跟Claude code大模型已经能力差不多了。</p>



<p>而且呢，他们做了一个特别过分的事情是什么呢？就是直接去对接Claude Code这样的一个产品去了。大家注意，Claude大模型是大模型，Claude Code是一个单独的产品，是一个编程用的AI agent。本来呢，里头应该是用Claude自己家的模型去使用，但是呢这帮中国的模型厂商不讲武德，把自己的API接口仿真成了Anthropic的API接口，说：“来，你就调我吧！你调各种的Claude大模型，我就去仿真去，我去做一个假的Claude模型来替你服务。”他美国大厂一般是不干这个事的，这个事是会被告的，但是中国这些厂就开始搞这件事了，效果奇好。</p>



<p>因为Claude Code这个产品本身呢，虽然它并不开源，但是呢在GitHub上直接提供，大家都可以去下载。大家调用Claude模型贵，而且呢也容易被封号，那干脆咱们就调国内的吧。我自己呢就是用Kimi K2的，速度飞快，而且价格大概只是Claude的1/10甚至更低一些，效果还是很好的。</p>



<p>这个呢，有点像一场什么呢？叫“轰轰烈烈的对口型大赛”。大家知道什么叫对口型大赛吗？就上面这人在唱歌，或者人家已经唱好了《我的太阳》，帕瓦罗蒂唱的，这种一般人你唱不上去，但是我又想表演一下怎么办呢？这边放着音频，我在旁边对口型表演一下。所以国内这帮模型厂商都搞了这么一个档子事。</p>



<p>这个呢，绝对是动了Anthropic的命根子，真的是直接杀掉的感觉。如果在AI编程领域，Anthropic被大厂覆盖了，或者说被大厂竞争得直接失败了，其他领域的话，Anthropic基本上是无法立足的。为什么呢？因为它没有流量入口。所有大厂，甭管是xAI、谷歌、OpenAI、微软，包括国内的这些大厂，都是天然有流量入口的。而Anthropic，你编程这一块如果搞不定的话，其他地方你就需要去跟大厂们去抢流量入口，你需要到大厂去交钱、去买流量去，这个事他是玩不转的。</p>



<p>所以呢，Anthropic在这样的一个环境下针对中国厂商就合理了。他的两大核心产品都很危险。两大核心产品，一个是Claude大模型，另外一个呢叫Claude Code这样的一个专门用于编程的AI agent的产品。Claude Code直接被截胡了，因为这个产品是可以免费下载的。他原来想的是，你下载了这个东西就要使我的模型，你就需要向我交钱，甭管是买Token也好，还是买我的Max账号——Max账号是一个月200美金的那种账号——我都可以把这个收入提上去，我们还可以绑定你的开发管线，让你直接在我这一直使下去，迁移成本不断上升，不能离开我。但是现在呢，我们下载了Claude Code这样的一个工具之后，就直接模仿了Anthropic的API接口，把Deepseek、Kimi K2、把这些东西全接上了。</p>



<p>而且呢，我们另外一面还在拿Claude的大模型在不断地蒸馏，蒸馏它的数据回来去训练我们自己的模型。所以在这块Anthropic觉得：“我们可能要被中国厂商欺负死了，所以一定要针对他一下。”所以这就是他从意识形态和商业形态上两个方面来去解释他为什么反华。</p>



<p>那么，这个事情未来的发展和影响是什么样的呢？Anthropic从估值上呢，绝对算是大厂，它现在也1000亿美金往上了。但是从产品形态上呢，还是相对来说比较小而美的。从互联网、移动互联网行业的发展历史来看，像Anthropic这样的公司，最终的结果只有两种：要么被收购，要么被干掉。因为什么呢？就是它不太具备独立成为完整平台的能力。你要想成为完整平台的话，你就要“和光同尘”一点。你像谷歌、苹果、Facebook、微软这些平台型公司，他会上来说“我要讲意识形态”？他不会搞的。他就是说：“我们尊重各国法律。你要罚我，我就上来上诉；上诉失败，我就老老实实交钱。我要尽量把生意做下去。”这才是成为平台公司的一个基本素养。一上来就说“我要高喊意识形态”，这种是很难往前走的。</p>



<p>而且呢，你想成为平台，有一个很重要的因素是不可或缺的，是什么？就是中国开发者。刚才我也讲了，中国开发者占全世界开发者的，可能算上华人吧，40%往上。各大开放平台里头，排名靠前的这些开发者，大部分都是中国人。当你一旦是限制中国开发者在里边去做事情的时候，就基本上断绝了Anthropic自己成为一个大型平台公司的这个后路，这事就搞不定了。还不像是YouTube这样的内容平台，内容平台你可以离开中国的内容创作者，这个是没问题的，有的是印度创作者或者其他创作者在这干活。但是编程平台你离开中国人，这事就绝对玩不转。</p>



<p>好，这个故事呢，就跟大家讲到这里。感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见！</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>OpenAI豪掷千亿美金打造星际之门，山姆·奥特曼的“民主AI”能否抗衡中国“霸权AI”并重塑全球AI格局引发深思。谁能赢得最后的胜利？</title>
		<link>https://lukefan.com/2025/05/14/openai%e8%b1%aa%e6%8e%b7%e5%8d%83%e4%ba%bf%e7%be%8e%e9%87%91%e6%89%93%e9%80%a0%e6%98%9f%e9%99%85%e4%b9%8b%e9%97%a8%ef%bc%8c%e5%b1%b1%e5%a7%86%c2%b7%e5%a5%a5%e7%89%b9%e6%9b%bc%e7%9a%84/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 14 May 2025 00:45:20 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI全球化]]></category>
		<category><![CDATA[AI公共服务]]></category>
		<category><![CDATA[AI医疗]]></category>
		<category><![CDATA[AI地缘政治]]></category>
		<category><![CDATA[AI基础设施]]></category>
		<category><![CDATA[AI应用]]></category>
		<category><![CDATA[AI投资]]></category>
		<category><![CDATA[AI教育]]></category>
		<category><![CDATA[AI本地化]]></category>
		<category><![CDATA[AI模型定制]]></category>
		<category><![CDATA[AI治理]]></category>
		<category><![CDATA[AI生态]]></category>
		<category><![CDATA[AI监管]]></category>
		<category><![CDATA[AI竞争]]></category>
		<category><![CDATA[AI算力]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[MGX]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI国家计划]]></category>
		<category><![CDATA[Oracle]]></category>
		<category><![CDATA[Qwen通义千问]]></category>
		<category><![CDATA[一带一路]]></category>
		<category><![CDATA[专制AI]]></category>
		<category><![CDATA[中国AI]]></category>
		<category><![CDATA[中美科技战]]></category>
		<category><![CDATA[主权AI]]></category>
		<category><![CDATA[云计算]]></category>
		<category><![CDATA[价值观输出]]></category>
		<category><![CDATA[华为云]]></category>
		<category><![CDATA[国家AI战略]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[山姆·奥特曼]]></category>
		<category><![CDATA[巨额投资]]></category>
		<category><![CDATA[开源AI]]></category>
		<category><![CDATA[数据隐私]]></category>
		<category><![CDATA[星际之门]]></category>
		<category><![CDATA[民主AI]]></category>
		<category><![CDATA[盟友国家]]></category>
		<category><![CDATA[科技霸权]]></category>
		<category><![CDATA[算力中心]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[腾讯云]]></category>
		<category><![CDATA[英伟达GB200]]></category>
		<category><![CDATA[软银]]></category>
		<category><![CDATA[闭源AI]]></category>
		<category><![CDATA[阿里云]]></category>
		<category><![CDATA[霸权AI]]></category>
		<category><![CDATA[黄仁勋]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2190</guid>

					<description><![CDATA[家人们！你们知道吗？OpenAI的星际之门项目直接砸了1000亿美金，未来四年还要烧5000亿！啊啊啊啊啊！我真的要疯了！这不是科幻电影，这是真金白银要改变世界的节奏啊！他们喊着“民主AI”的口号，要对抗所谓的“霸权AI”，这背后到底藏着啥秘密？今天我必须给你们扒一扒！

先说这星际之门是啥！简单来说，就是OpenAI联合软银、Oracle和中东土豪，全球建超级AI数据中心，号称要给每个国家定制符合当地文化的ChatGPT！听起来是不是很牛？医疗、教育、公共服务全覆盖，简直是AI界的“救世主”！但重点来了，他们的“民主AI”就是要对抗“霸权AI”，矛头直指中国的开源大模型！我的天，这场AI大战也太刺激了吧！

再聊聊他们的套路！OpenAI说，民主AI就是要把民主价值观训练进模型里，防止政府滥用AI，保护个人自由！听起来很美好对不对？但问题来了，他们自己不开源，凭啥说自己最民主？反观中国，Qwen、DeepSeek这些开源模型随便你拿去用，想咋调咋调，自由度爆棚！这俩谁更“民主”，你们自己品品！

最后说一句，OpenAI的星际之门确实砸钱砸得狠，但中国AI基础设施也在全球狂铺，阿里云、华为云、字节跳动都不带怂的！这场AI战火才刚开始，到底谁能笑到最后？我已经搬好小板凳吃瓜了！

家人们！你们觉得OpenAI的民主AI能干过中国开源AI吗？快来评论区聊聊你的看法！我真的不允许有人错过这场世纪对决！冲冲冲！🔥🔥🔥

OpenAI豪掷千亿美金打造星际之门，山姆·奥特曼的“民主AI”能否抗衡中国“霸权AI”并重塑全球AI格局引发深思。谁能赢得最后的胜利？

OpenAI斥巨资启动“星际之门”宏伟计划，山姆·奥特曼亲临指导，力图在全球推广其“民主AI”理念，通过国家AI项目与盟友共建AI基础设施，定制本土化ChatGPT，以此抗衡其所定义的中国“霸权AI”。然而，这一不开源的“民主AI”真实性备受关注，其背后是与软银、Oracle等巨头的复杂合作。与此同时，中国正凭借阿里云、华为云等力量，依托“开源大模型”和云计算技术，在全球范围内大力推进AI基础设施建设，与OpenAI形成鲜明对比。这场关乎未来通用人工智能（AGI）主导权、数据主权及AI伦理的全球AI竞赛已然打响，究竟是OpenAI的“民主AI”能赢得盟友信任，还是中国更具灵活性的“霸权AI”模式将主导市场？]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="OpenAI豪掷千亿美金打造星际之门，山姆·奥特曼的“民主AI”能否抗衡中国“霸权AI”并重塑全球AI格局引发深思。谁能赢得最后的胜利？" width="900" height="506" src="https://www.youtube.com/embed/A_KiiyMnDcU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>OpenAI的星际之门和民主AI，到底要对抗谁呢？</p>



<p>大家好，欢迎收听老范讲故事的YouTube频道。山姆·奥特曼亲临德州星际之门工地，现场指导工作去了。他在德州阿比林市星际之门工地现场做了一些现场指示，这就是他们星际之门的第一期工程。项目花费呢，首期投入是1,000亿美金，未来四年共计消耗5,000亿美金。但后边的事大家就别太当真了，因为后面还有很多钱可能需要各国政府去掏，待会我们再去讲。</p>



<p>第一期建设呢，主要是软银掏钱。Oracle负责设计、施工和建造，所以现场拍到的照片，大家穿的小背心、安全帽上面都是写的Oracle的字样。计划部署6.4万台英伟达GB 200 GPU，首期的1.6万台英伟达GB 200 GPU应该是在今年夏天就可以完成安装，就可以投入使用了。</p>



<span id="more-2190"></span>



<p>OpenAI负责运营，而且OpenAI使用这些星际之门设备的时候，还得老老实实付租金。那你说这咋回事呢？他不是应该跟软银一块出钱吗？跟软银、Oracle，还有一个中东的土豪MGX，四家基金一块出钱，怎么你自己用还要付租金呢？对美国人他就是这样，他这样可以算两回：一方面我是出了钱了，另外一方面我也要付租金，各算各的。</p>



<p>山姆·奥特曼就去做指示去了，说什么呢？说我们要开展国家AI项目了，每个国家我们帮你去建一套星际之门，我们在里头实施民主AI，去对抗专制AI。他要干这么个事儿。</p>



<p>我们刚刚讲到的，软银出钱、Oracle建造、OpenAI运营，这四家里头还有一没说的呢，就是中东土豪——中东基金MGX。他出的钱以后主要用在哪？星际之门在美国之外的很多建设，估计就需要MGX来去出钱了。星际之门在日本的建设，估计软银也会把钱出了。但是如果到中东去建设了，那么MGX说：“来，大头我出了吧。”应该是这么去做的。</p>



<p>OpenAI在5月7号宣布了全球的新计划，叫OpenAI国家计划。意思是什么呢？由OpenAI、软银和各国政府一起出钱，将星际之门的服务器部署到每个国家去。原来你不是说你的数据不能到其他国家去吗？你这个数据需要进行国家的审核和监控，要保护隐私。而且呢，OpenAI大家知道，它大量的训练语料都是英语的，你要换一个其他的非英语的语言，有的时候没有那么好使。那现在说我们干脆给每个国家，特别是盟友国家，都去建一套星际之门，你们就在这使就完了。</p>



<p>他呢，要去做全球性的AI基础设施建设，通过与政府合作，推动本地AI的技术发展。</p>



<p>并将美国主导的AI生态扩展至全球，为各国提供符合当地语言、文化和需求的定制版ChatGPT。比如说到意大利了，到西班牙了，到德国了，我帮你去训练。训练完了以后，你们就有符合当地语言和文化需求的这种定制版的ChatGPT了。相互之间也不影响，别回头我给你定制了半天，我再把美国那个版本给玩废了。咱们隔开了玩。</p>



<p>而且呢，他们这些分开部署的ChatGPT重点将应用于医疗、教育和公共服务这些领域。它呢强调AI模型的安全管理，包括数据中心的物理安全、模型部署流程合规性，并且探索民主AI的原则，及确保AI技术的使用不被政府滥用，维护自由市场竞争和个人选择权利。待会我们去讲讲它到底啥叫民主AI。</p>



<p>据说要在盟友中建设星际之门，但是呢，现在不知道谁第一个。说是已经跟十来个国家去谈好了，就准备开工了，要建了。我觉得日本可能是第一个，因为毕竟出钱的是软银吗。咱先自己建一套，这个合理。当然你说中东是不是会头一个冲上来，这个也有可能。因为现在中东土豪们也在拼命的囤GPU，在这去建立各种各样的AI基础设施。而且四个出钱方里头还有一个叫MGX的中东土豪基金呢。</p>



<p>还有一个可能第一个跑出来的是谁呢？就是英国。英国算是第一个跟特朗普签了双边贸易协定的，也算是做出了表率的作用。而且也说了，我们以后会对美国的这些互联网公司、科技公司网开一面。也没准他头一个会冲上来。</p>



<p>那么OpenAI的国家AI计划跟当年黄仁勋提出的主权AI有什么区别吗？OpenAI还是要美国控制的，各地的星际之门里头运行的大模型必须是符合美国的民主价值观的。而主权AI就是你们只管把GPU买回去，剩下的事你们各国政府自己说了算，跟我没关系。所以OpenAI现在提的国家计划跟黄仁勋提的主权AI是完全两回事。黄仁勋提的主权AI的话，其实更像是OpenAI现在想要去对抗的中国的霸权AI。</p>



<p>讲到这儿了，咱们讲讲OpenAI到底怎么去定义民主AI。他呢呼吁美国及其盟友领导的民主AI对抗霸权AI。那现在能够搞霸权AI的，大概也就剩咱们了。那意思是什么呢？就是民主国家有责任确保AI技术最大化其好处，最小化其风险。那什么叫民主AI呢？叫保护并融入长期以来民主原则的AI。就是我训练AI的时候，我把一大堆民主价值观和民主原则一起训练到AI里去了。只要是你跟AI说我现在要独裁了，我要霸权了，AI就拒绝回答。我们训练了这些民主AI。</p>



<p>人们可以自由地选择如何使用AI，但是反而觉得稍微有些别扭，有点矛盾。然后要防止政府利用AI篡取控制权，就是你政府拿到AI以后，不能靠这个东西控制民众，或者说去扩大政府权力。因为大家注意，政府手里有最多的资源，最多的数据，甚至还有AI这个服务器的后门钥匙之类的东西。按道理说，政府掌握了所有这些资源以后，就可以自己去放大自己的权利了。</p>



<p>OpenAI说，我们的民主AI是要监督你的，你不能干这个事，而且要保证自由竞争的市场。这块呢，我觉得OpenAI稍微有些矛盾。怎么叫矛盾呢？你使用OpenAI这个东西叫民主AI了，美国也不是只产这一个大模型，欧洲还有大模型呢。那他们那个算不算民主AI？这个不知道了。所以对于OpenAI来说呢，技术开发和使用中，要包含民主价值观的AI。所谓民主价值观，就是个人自由、权力分散、利益普惠。这个东西要真正造福全人类。</p>



<p>对于OpenAI来说，虽然叫民主AI，但是这里头并没有民主过程，没有投票的部分。而且呢，我们也不开源。这事是我自己关起门来说了算的一个AI。但是呢，因为我训练的时候，我告诉大家了，我使用了民主的价值观训练的，所以我这东西叫民主AI。当然，OpenAI呢也计划在未来会开源更强大的大模型出来。到底是什么时候不知道，咱们慢慢等就好了。</p>



<p>那么一个不开源的大模型怎么民主呢？OpenAI的解释是这样：OpenAI的公司治理结构就决定了我们是受监督的。什么意思？他说我们是一公益公司（PBC，public benefit corporation），而且呢，是受到非营利组织持股并且控制的一个公司。我可以保证我的使命是不会改变的。我们的使命是让AGI，也就是通用AI，造福全人类。这是由一个非营利机构来监督的。通过这样的方式来保证说，我这东西肯定民主，而且保证说OpenAI永远不会成为一家正常公司。因为正常公司就是我们老老实实为股东赚钱就完事了嘛。</p>



<p>认同美国民主价值观的盟友们，就应该使用OpenAI的民主AI嘛，而不是中国的这些霸权AI。不知道谷歌的Gemini、Xai的Grok、Anthropic的Claude，以及Meta的LLAMA和法国的Mistral够不够民主，还是说只有OpenAI是民主的，其他的就差点意思呢？这个就稍微有点难以自圆其说了。但是你如果建了星级之门，你肯定是要用OpenAI的，不能用别人的。中国的霸权AI跟它相对应的。</p>



<p>到底是什么样的一个玩法呢？DeepSeek和Qwen这种就是完全开放权重，你自己拿去部署。部署完了以后，你想怎么调怎么调，自己用自己的数据，你让他想干嘛干嘛，大家拿去自己玩耍。</p>



<p>阿里云、字节、腾讯、华为其实现在也在全球建设AI基础设施。不光是星际之门在那干这个事，阿里云说我们今年要投入3,800亿人民币，应该也有个500多亿美金。咱们确实没有人家有钱吧？反正咱们也要投入这个钱去建设AI基础设施。字节也在干这个事，大力去购买GPU。而且字节在海外去购买大量的H100、GPU200。中国你是不允许买卖，在海外是可以买的。买完了以后去建设机房。华为云和腾讯云都在全世界铺机房的，铺完了以后说来上我这使来吧，反正有自己的大模型，你们想怎么使怎么使，想怎么弄怎么弄。</p>



<p>中国建设这些全球范围的基础设施，第一个是自有资金。这些公司自己有钱，比如说阿里自己有钱，字节自己有钱。第二个是什么呢？就是很多美国银行和投资基金是愿意给他们出钱的。公司运营的很好，还盈利，那我现在把钱借给你，或者说我投资给你，我相信你能够把钱挣回来。另外呢，就是一带一路这些地方的政府，当地政府会给钱。比如说我们现在跑到中东去建数据中心去了，华为云去了。去了以后当地政府说挺好的，你们把这东西建立起来，让我能用上。还有一些呢就是中国政府的钱。中国政府在一带一路地区呢，是有一些国家基金在那边也会投钱。</p>



<p>而且现在各国政府使用中国这些开源大模型已经做出一些自己的成绩来了。比如说日本吧，日本现在跑得最好的一些日语模型是拿Qwen重新微调出来的日语版本，效果已经非常好了，完全超越了谷歌的Gemini，也就是谷歌开源的这个版本，和Meta开源的LLAMA这些版本微调出来的日语版本。因为日本公司呢，相对来说是比较谨慎和保守，他不能让自己的数据离开公司，必须在我公司里头跑。那你需要做私有部署，就只能老老实实的用这种纯开源模型。你没有办法去使用OpenAI的ChatGPT。比如说丰田我要做汽车，要把我的数据送到孙正义的机房里边去，送到软银的机房里去，这个事他们是没法接受的。所以他们就老老实实的拿中国的Qwen模型就去做微调去了，效果很好。</p>



<p>而且做云计算的建设，甭管是中国的像阿里云、腾讯云、华为云，还是说OpenAI做星际之门这件事，它其实都是云计算。云计算的特点是什么？它是一个需要精确进行成本核算微利的辛苦活。</p>



<p>走在全世界任何地方，云计算都是这样的一种生意。没有哪个说我做云计算我暴利，这不可能的，因为大家还要竞争呢。那么，必须要有应用才能够有盈利。必须要盈利，你才能够迭代推进，不断的扩张。</p>



<p>中国的互联网公司其实更喜欢玩一些中国的玩法。中国玩法是什么？就是画地为牢，肥水不流外人田这套东西。你想在腾讯这边发游戏吗？你就要到腾讯云来。你想到阿里这边去做电商，或者做一些其他的这种活动吗？你要到阿里云上来。你想在抖音然后去干点什么事吗？你要使用字节的东西。它的商业部署就是：你首先把云计算中心铺下去，然后会要有人来用，你整个的商业才可以运转起来。</p>



<p>而对于像OpenAI这样，因为民主你得用我的，切着咔嚓就把这些机房铺下去的话，他未必能盈利，未必能Run的起来，因为它不是一个纯商业行为。另外一方面呢，中国的资金甭管是谁家的，是阿里的还是各种公司的呀，还是说国家一带一路的，这些基金有一个共性，就特别喜欢投资各种各样的基础设施建设。现在AI算力中心也算是AI基础设施建设吧。</p>



<p>我原来在南非跟中非基金的人还聊过。中非基金就是中国派到南非去的政府基金，他们就四处去非洲投资什么矿山、港口、公路、铁路、机场、移动运营商、电视台，这可喜欢投资这些东西了。哪怕短期内挣不回钱来，但是他们相信这种东西长期一定是能挣回来的，长期一定是旱涝保收。你像美国说你们怎么可以占这么多港口，怎么可以占苏伊士运河，你怎么可以有这么大的控制权？但没有办法，咱们就是有钱就爱投这个。就像是以前的地主，有钱要干嘛？买地。</p>



<p>因为我们这些基金甭管是国家基金也好，还是这些公司的基金也好，他在国内他想投基础设施，他不让他投，没有这个机会。那出去了，终于没人管你了，赶快干。所以中国在全世界都喜欢投基础设施。</p>



<p>现在是两边在进行竞争。OpenAI的星际之门号称是国家AI计划和民主AI，到全世界美国的盟友那里建设他们的星际之门。中国呢到全世界去铺AI基础设施建设，甭管是集不集权吧，反正我们把AI大模型开源了，拿出来说你们拿去用。所以OpenAI的民主AI真正在竞争的，或者真正要去对付的，就是中国开源的霸权AI。</p>



<p>那你说到底哪个更民主呢？一个呢是中国这些完全开源的大模型，当然我们也提供闭源的，你要愿意使闭源的我们也给。但是呢我们都有开源的模型给你去用。大家要注意，你去建立这些数据中心、算力中心，谁出钱谁决策？肯定是各国政府来决策。</p>



<p>或者是各国的精英和大企业，他们要去决策。这些人呢，会代表这些国家的意愿。至于你下面的这些民众到底怎么样，跟我们没关系。谁出钱谁说了算，我们是这样的一个原则。</p>



<p>而美国，也就是OpenAI，玩的民主AI。它玩的什么呢？第一个，我这东西受美国政府管理；第二个，要符合美国民主价值观的AI大模型。那这个美国民主价值观是什么？就是人们自由选择如何使用AI，防止政府利用AI篡取控制权，以及自由竞争的市场。到盟友那儿，咱们道德绑架：你拿着这东西，你就得按我这方式使。你拿了我这东西以后，政府想扩大一点权力行不行？我想对什么东西做一个监控行不行？不行，这不符合民主。咱们玩的是这样的一套东西。</p>



<p>这个也算是以其人之道，还治其人之身吧。什么意思呢？相当于是对他的盟友进行一些道德绑架。原来最喜欢玩道德绑架的是什么人？欧盟这帮人原来是最喜欢玩道德绑架的：你这个侵犯了我的隐私权了，你这个是看门人了，我要罚你多多少钱。那现在你不是标榜你民主吗？来，我给你玩一个民主，咱们看看到底谁绑架谁。这是OpenAI的玩法。</p>



<p>那么最后到底谁能胜出呢？从我个人的感觉上来说，也许中国的开源霸权AI是可能能够胜出的。为啥？在全球建设AI基础设施，有权做决定的并不是民众，而是各国政府和大企业。中国的廉价商品可以行销全球，说明了各国政府和这些有决策权的人，在掏钱的时候，大家还是清醒和理智的。在这个时候，没有人会被道德绑架的。没有永远的朋友，没有永远的敌人，只有永远的利益。中国人不跟你讲那个，我们只讲利益。我给你这些东西，你愿意巩固你自己的权利，愿意玩政府权力窃取你的事，跟我没关系。反正你花钱了，我把东西给你了就完事了。</p>



<p>中国的大模型，目前还没有OpenAI的好用，这个还是要承认的。但是第一个便宜，OpenAI肯定是要找你收钱的。而我们这儿的话，大模型归你了，你愿意怎么用怎么用，其他的我不管了。掏钱建设的人，肯定还是希望自己说了算，想怎么用就怎么用。没有人说我花钱买回来东西以后，你还得教我怎么做。民主这个事我觉得可能符合道德，但是不符合人性。这个事情咱们可以一步一步往前看，到底是中国开源的霸权AI最后能胜出，还是由OpenAI领衔的民主AI能够胜出。这个瓜还可以吃个几年。</p>



<p>好，这个故事今天就讲到这里。感谢大家收听，请帮忙点赞、点小铃铛，参加DISCORD讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>特朗普酒店门口Cybertruck爆炸背后：ChatGPT如何成为被质疑的对象，AI伦理能否守住底线？</title>
		<link>https://lukefan.com/2025/01/12/%e7%89%b9%e6%9c%97%e6%99%ae%e9%85%92%e5%ba%97%e9%97%a8%e5%8f%a3cybertruck%e7%88%86%e7%82%b8%e8%83%8c%e5%90%8e%ef%bc%9achatgpt%e5%a6%82%e4%bd%95%e6%88%90%e4%b8%ba%e8%a2%ab%e8%b4%a8%e7%96%91%e7%9a%84/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 12 Jan 2025 00:45:35 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI与犯罪]]></category>
		<category><![CDATA[AI与犯罪预防]]></category>
		<category><![CDATA[AI与用户心理]]></category>
		<category><![CDATA[AI主动干预]]></category>
		<category><![CDATA[AI伦理问题]]></category>
		<category><![CDATA[AI使用边界]]></category>
		<category><![CDATA[AI信息筛选]]></category>
		<category><![CDATA[AI在反恐中的作用]]></category>
		<category><![CDATA[AI帮助犯罪可能性]]></category>
		<category><![CDATA[AI技术社会责任]]></category>
		<category><![CDATA[AI报警系统]]></category>
		<category><![CDATA[AI数据隐私]]></category>
		<category><![CDATA[AI用户教育]]></category>
		<category><![CDATA[AI用户隐私和责任]]></category>
		<category><![CDATA[AI监管]]></category>
		<category><![CDATA[AI责任]]></category>
		<category><![CDATA[AI过滤机制]]></category>
		<category><![CDATA[AI隐私保护]]></category>
		<category><![CDATA[AI预测犯罪]]></category>
		<category><![CDATA[AI鼓励效应]]></category>
		<category><![CDATA[ChatGPT上下文意图]]></category>
		<category><![CDATA[ChatGPT与社交媒体区别]]></category>
		<category><![CDATA[ChatGPT使用争议]]></category>
		<category><![CDATA[ChatGPT匿名用户风险]]></category>
		<category><![CDATA[ChatGPT如何规劝用户]]></category>
		<category><![CDATA[ChatGPT是否应被限制]]></category>
		<category><![CDATA[ChatGPT爆炸信息]]></category>
		<category><![CDATA[ChatGPT电话服务风险]]></category>
		<category><![CDATA[ChatGPT社会影响]]></category>
		<category><![CDATA[ChatGPT语气心理影响]]></category>
		<category><![CDATA[ChatGPT长期记忆功能]]></category>
		<category><![CDATA[Cybertruck爆炸]]></category>
		<category><![CDATA[GPT与传统搜索区别]]></category>
		<category><![CDATA[GPT搜索崛起]]></category>
		<category><![CDATA[OpenAI与政府合作]]></category>
		<category><![CDATA[OpenAI争议]]></category>
		<category><![CDATA[OpenAI责任推卸]]></category>
		<category><![CDATA[人工智能伦理]]></category>
		<category><![CDATA[人工智能技术风险]]></category>
		<category><![CDATA[国际AI监管]]></category>
		<category><![CDATA[搜索引擎信息传播]]></category>
		<category><![CDATA[未来搜索引擎趋势]]></category>
		<category><![CDATA[爆炸物AI帮助]]></category>
		<category><![CDATA[特斯拉Cybertruck安全性]]></category>
		<category><![CDATA[特朗普酒店事件分析]]></category>
		<category><![CDATA[特朗普酒店爆炸]]></category>
		<category><![CDATA[社交平台AI管理]]></category>
		<category><![CDATA[谷歌与ChatGPT比较]]></category>
		<category><![CDATA[谷歌搜索取代]]></category>
		<category><![CDATA[马修·莉费尔斯贝格事件]]></category>
		<category><![CDATA[马修使用ChatGPT的目的]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1840</guid>

					<description><![CDATA[啊啊啊啊啊啊啊！！！谁能想到，今年开年就发生这么离谱的事！🚨 身为一名老范，我绝不能让这件事在我们脑海里轻易飘过！你知道吗？在拉斯维加斯的特朗普酒店门口，居然有一辆Cybertruck爆炸了！没错，就是那辆超酷的电动皮卡！🔥💥

故事的主角是个37岁的现役军人马修，他开着装满烟花的Cybertruck停在那里，没想到一把火点燃了！结果，虽然酒店没受太大损失，但Cybertruck却借此考验了它的安全性——电池竟然没起火！这算是“无敌车”的名号再一次被证实了吗？🤔

可是这背后，你可知道，OpenAI的ChatGPT竟然也“牵涉其中”！警方调查发现，马修在事发前向ChatGPT询问了很多关于爆炸物的问题！😱 而且，ChatGPT还给了一些“温和”的答复，提醒他注意安全和法律！可是，这种工具会不会被滥用呢？这真是个大问题！

想想看，OpenAI究竟该承担多少责任？只要你有个问题，就可以得到一个答案，甚至每次都是“量身定制”的！🤯 这就像是咖啡馆的手冲咖啡，一杯一杯的精致，但也意味着更大的责任！相较于传统搜索引擎，AI的使用给我们带来了便捷，但同时也需要更多的安全监管！

未来的AI助手该如何规范？我们又该如何保护自己？安全使用AI已经成为当下的热门话题！🛡️大家在使用的时候，一定要警惕！不然，下一次引火自焚的，可能就是你哦！🔥

所以，快来分享你的看法吧！这一话题实在是太重要了！别忘了点赞，订阅老范的频道哦！🤗

特朗普酒店门口Cybertruck爆炸背后：ChatGPT如何成为被质疑的对象，AI伦理能否守住底线？

特斯拉Cybertruck在特朗普酒店门口爆炸震惊全美。事件背后牵扯出人工智能ChatGPT的使用争议：军人马修通过ChatGPT获取爆炸相关知识，引发社会对OpenAI的道德责任讨论。文章详细探讨了ChatGPT如何通过上下文意图判断、信息筛选及其与谷歌搜索的本质区别，并展望AI在反恐与社会安全领域的未来发展。随着GPT搜索对谷歌的快速替代，AI的使用边界、过滤机制和潜在的主动报警功能成为焦点。事情背后揭示了AI厂商如何在用户隐私保护及社会责任之间找到平衡，尤其是将其作为社交媒体平台来管理的新思路。本篇深入剖析了从搜索引擎到AI助手伦理、法律责任和技术管理的全貌。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="特朗普酒店门口Cybertruck爆炸背后：ChatGPT如何成为被质疑的对象，AI伦理能否守住底线？" width="900" height="506" src="https://www.youtube.com/embed/SXqQFNbyoBo?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>Cybertruck在特朗普酒店门口爆炸，这样的事情OpenAI应该如何防范呢？大家好，欢迎收听老范讲故事的YouTube频道。今年的开年非常不太平，也算是多事之秋。</p>



<p>37岁的美国陆军现役军人马修·莉费尔斯贝格，他开着装满了烟花爆竹的Cybertruck，停在了拉斯维加斯的特朗普酒店门口，然后把它点着了。酒店的损失并不是很大，Cybertruck也就此证明了自己的安全性，因为Cybertruck整个车壳并没有特别大的损伤，而且经历了这么剧烈的燃烧之后，电池没着火。</p>



<p>但是这里头你说有OpenAI啥事呢？在事后调查的时候，他们去搜查了马修的笔记本电脑和手机，发现马修向OpenAI的ChatGPT询问了很多问题，包括需要多少爆炸物。当然了，ChatGPT是会比较圆滑地回答这种问题。现在可能回答的是，提及了不同爆炸效果及所需爆炸物的大概量，比如说制造小型爆炸需要多少克的爆炸物，同时应该是警告了私自获取和使用爆炸物是违法和危险的行为。</p>



<span id="more-1840"></span>



<p>大概也就如此了。为什么说是可能呢？因为ChatGPT这种东西，你每次向它提问题，即使是相同的问题，它也未必会给你相同的答案，所以我们只能猜测说这个答案大概是什么。</p>



<p>除了这个问题之外，马修还问了如何用枪来引燃这些爆炸物。他不希望去后边点火，而是希望直接开枪引燃这些爆炸物。按照ChatGPT的这种工作模式，大概率给出的答案应该是什么呢？是介绍一些基本的爆炸原理，比如某些炸药需要达到一定的冲击力、热量等等才可以引爆，以及一些枪支发射时所能产生的能量和冲击等相关的知识。但是呢，应该也会强调这种行为的危险性和违法性。</p>



<p>这位马修还询问了如何在不提供身份信息的情况下合法购买枪支。按道理来说，应该是告知购买枪支需要遵守严格的法律规定和流程，必须提供个人信息。如何购买爆炸物和烟花，这个也是他去询问的问题。可能给出的答案呢……</p>



<p>是爆炸物严格管控，个人无法合法购买，而烟花的不同地区有不同的购买规定。如某些合法售卖点，可以在提供个人信息之后购买到相应的烟花。同时，应该也会警告他非法购买爆炸物的严重后果。这就是ChatGPT会给他的一些答复。</p>



<p>除了这些问题之外，警方还发现了他提的一些问题，比如说枪支发射子弹的速度，以及从哪里可以购买到烟花，购买烟花需要多少钱，以及烟花跟爆炸物之间的差别。OpenAI也就此做出了回应。第一个，ChatGPT只是用互联网上已公开的信息做出回答，这很像原来谷歌和微软的搜索引擎的回复。</p>



<p>很多人说，搜索引擎可以搜到这个，可以搜到那个，搜到很多有害的不健康的信息。搜索引擎一般给出的答复就是，这些信息都是别人发布到网上的，我们只是搬回来，并没有自己去加工这些东西，这些东西不是我生成的。因此，OpenAI现在也进行了这样的回复。我相信这位马修使用的应该不是单纯的ChatGPT，而应该是GPT Search，就是通过ChatGPT进行搜索得到了这些答案。</p>



<p>然后，OpenAI警告不要开展有害的非法行动，这个GPT还是会做的。就是你问他一些比较敏感的问题时，他每次在回答中都会加入这种警告。这些信息是警方检查了马修的笔记本和手机时发现的，并不是OpenAI主动提供的。OpenAI其实在这种事情上能做的目前并不是很多。他能够做的是什么呢？第一个叫隐藏和删除有害信息，做引擎其实也是这么干的。有一些他们可以判定的有害信息，有可能会删除或隐藏，而还有的情况是会让它的排序比较靠后。</p>



<p>然后呢，是规劝使用者遵纪守法。每一次问完问题后，我可以规劝你一下，这个是原来搜索引擎干不了的。他可以干。还可以干什么呢？就是事后协助调查，就像这一次似的，出了问题，警方发现了，找到OpenAI，OpenAI说那我们就积极配合吧。</p>



<p>协助调查这件事情的话，马修的所有问答应该就都可以被调出来了。不会像当年苹果似的，要求解码不给你解。OpenAI在这点上应该没有那么的有骨气，然后OpenAI还去表了个决心，说我们是致力于看到人工智能工具被负责任的使用的。那么这个事到底谁负责任呢？到底是OpenAI负责任呢，还是使用ChatGPT的用户应该负责任呢？没说，反正它就是希望我们这些工具可以被负责任的使用。</p>



<p>这个就跟我们是卖菜刀的，卖完菜刀以后贴一个条，说我们希望这些菜刀被负责任的使用，这样就可以了吗？还是说真的像某些地方那样，菜刀必须搁一个链子，锁在这个案板上才可以去使用呢？这个可能是对于OpenAI来说提出的一个新的挑战。那么原来这种事情是怎么处理的？比如说谷歌，遇到类似这样的事情怎么处理？</p>



<p>有人比如上去搜索了，“我上哪去买火药，这火药有什么差异？”谷歌呢原来也是隐藏一部分的有害信息，但我相信这些问题，谷歌上面要给出的答案一定会比ChatGPT还要丰富。谷歌上面隐藏的信息其实相对来说是比较少的。这个里边有一个很大的问题是什么？叫意图判定。你跟ChatGPT聊天的时候，ChatGPT是可以根据你前后文上下的这种历史聊天记录进行一定的意图判断的。而对于谷歌来说的话，相对来说要难很多，因为你随随便便提出一个问题，前不着村后不着店，没有上下文的情况下，他比较难以去判定你到底是什么样的一个意图。</p>



<p>如果意图没有办法判定的话，我就不能去断定你是一个恶意的还是一个善意的。那么他就会尽可能的根据你提出的问题，把相应的答案都给你给出来。你再去在一大堆答案里边筛选，抽取自己觉得有用的信息去进行合并，然后去做事情。所以谷歌呢，在这块其实要更危险一些。另外呢，谷歌有的时候是会去主动上报的，这个是目前为止OpenAI可能还没有干过的事情。但是呢，他不会说因为有一个人去搜索“原子弹该怎么做”，他就去上报。</p>



<p>谷歌一般会在有大量异常搜索活动发生的时候，才会去上报。那你说，不可能一个恐怖分子要造这个原子弹，反复搜1,000次“怎么造原子弹”，这事不会发生吧？对，这个是不会的。这种事情通常也不会被上报。</p>



<p>但什么时候会上报呢？你比如说，一堆人在搜“感冒吃什么药”、“发烧了该怎么办”这种事情呢，就会去上报呀。他向疾控中心上报，因为有大量的人在谷歌里边搜索这种问题的时候，说明可能某一种流行病就在传播起来了。这是谷歌原来去做过的事情。</p>



<p>有什么样的情况，这些互联网平台或者服务商应该去主动上报呢？第一个就是金融机构。如果发现了自己被攻击了，或者是一些异常的可疑交易，比如说他发现你跟一些可疑的账户做一些区块链交易，或者什么这样的一种账户，你去交易了。在这种情况下的话，他有可能会叫停你的这个操作，然后帮你去报警，或者说要求你去进行一定的说明以后，才可以再往前走。这个是金融机构会干的事情。</p>



<p>第二个就是社交媒体平台，抖音、快手、TikTok、Twitter这样的平台。他们在发生这种暴力、仇恨、色情内容的时候，当然有各地的法律规定了，这个不是说什么都可以擦边的，一定是明显违法信息。而且这些信息被大量传播的时候，他们是会去主动上报的。国内的话，那肯定是只要信息大量传播了，他们会在大量传播之前就直接删掉，尽量不要去麻烦官老爷。这是中国社交媒体平台的工作方式。</p>



<p>但是在国外的话，如果出现非常大规模的，包括恐怖言论或者恐怖袭击相关的信息，都是有可能会触发警报进行上报的。还有一些像网盘这样的服务，你说我自己存一些信息，理论上说应该是没问题的，因为这是你自己的。但是呢，你去分享和传播一些信息的时候，如果有大量的传播，而且这个信息本身，比如说涉嫌侵权或涉嫌一些违法信息的话，是会主动上报的。这个应该是在国外，但在国内的话就是另外一回事了。你存在里头，哪怕你不去进行传播，他也有可能替你删掉。</p>



<p>但是，按道理来说是不会主动上报的。但是如果说，我这个存了一部片子，我还拼了命的去分享，很多人从我这里去下载了这部片子，结果他发现这个片子是有问题的，这就有可能会触发他的这个主动报警的机制，这个人就有可能会被抓起来。</p>



<p>还有一个经常会主动上报的单位是哪儿？就是物流公司。发现你快递的物品有可能是一些可疑物品，比如枪支或者是毒品，他们也是会去主动报警的。这个呢，是目前会主动报警的一些互联网服务的机构吧。</p>



<p>安全使用AI呢，肯定是当前社会面临的一个新问题。刚才我们讲了搜索引擎怎么办，金融机构、社交媒体、网盘、物流公司怎么办？原来是没有AI这种东西的，现在有AI了，我们就要去应对这件事情。</p>



<p>马修这个事情，也就是说特朗普酒店门口燃烧的特斯拉Cybertruck这个事情，它说明了什么呢？说明了现在GPT搜索的访问量其实已经在快速的蚕食谷歌搜索。他在遇到问题的时候，使用的不是谷歌搜索了，而是GPT搜索。这应该是一个新的方向。毕竟GPT要比谷歌回复的内容更加友好。</p>



<p>你在谷歌上搜半天，他沏着咔嚓给你列了可能十几页的答案出来，你需要一个一个的点进去看，看完了以后才能够得到一些结论，说：“哦，我这个应该这样去做，那这个应该那样去做。”但是你如果使用GPT去问问题的话，每一次他会给你一个答案，当然也有个别的时候给你两个答案，让你挑一下。绝大部分的时候是给你一个答案，而这个答案是GPT搜索完了以后总结归纳以后的结果，你就可以直接用了。而且在这个里边，还会生成一些上下文相关的信息，让这个信息看起来更加连贯，更加具有可读性。</p>



<p>所以呢，GPT搜索去代替谷歌搜索，这个大趋势应该已经不可逆转了。我现在已经基本上不再使用谷歌搜索，我现在搜各种东西，要么是豆包，要么是GPT搜索，其他的基本上也不怎么用了。作为谷歌来说呢，他是搜索引擎，他可以去推卸责任，就跟原来讲说农夫山泉仅仅是大自然的搬运工一样，我一滴水都不生产。</p>



<p>一瓶水都不生产，我只是把这个原来在那里的水搬过来了。谷歌也可以说这个话，这个内容都不是我产生的，我只是按照你的搜索要求，把你需要的内容给你找到了，其他跟我没关系。</p>



<p>谷歌相当于什么呢？相当于是一家超市，在这儿卖瓶装饮料的。但是，ChatGPT就完全不一样了，ChatGPT相当于咖啡厅，卖的是手冲咖啡。手冲咖啡的话，用户体验一定是比瓶装咖啡要好很多，因为有一个真人在替你服务了。但是，你一定要承担更大的责任。</p>



<p>比如说，我喝咖啡喝的拉肚子了，上吐下泻了。如果我是在便利店里买了一个瓶装咖啡的话，那么便利店只需要证明他卖的这个咖啡不是过期产品，就完事了，剩下的我就可以去找这个咖啡的生产厂商了。但如果我在咖啡馆里喝了一杯手冲咖啡，然后上吐下泻了，那这肯定是你们咖啡馆的问题，没什么好说的。</p>



<p>所以，前面OpenAI去推卸责任，说我只是把网上公开信息找到了给你，这件事其实是推脱不过去的。谷歌可以这么推脱，但OpenAI你是不能这么去推脱的，它必须要承担更大的责任。</p>



<p>人还有一个问题是什么呢？就是人在GPT的帮助下，要比在谷歌的帮助下能力更强。刚才我们也讲了，我们使用谷歌搜索的时候，还需要点去看，还需要自己总结归纳，这个工作效率是相对低一些的，甚至很多人可能压根就没有耐心去使用。但是，使用GPT的话，它直接就给你答了，没有中间你再去点进去，再去总结归纳的过程，都没有了。</p>



<p>所以，在GPT的帮助下，人的能力是变得更强了。而且还有一点，大家有没有想到呢？就是你跟GPT沟通的时候，会有一种跟真人沟通的这种错觉。那这个有什么关系吗？有关系。跟真人沟通的时候，你会有一种被肯定与鼓励的错觉。比如说，我要干一个什么事情，我是不是该干这个事呢？你如果跟谷歌去沟通了，去搜索了，你不会觉得这个决定是别人鼓励你做出的，或者由别人肯定过的你的一个结果，你不会有这种感觉。</p>



<p>但是你跟GPT沟通的时候，你会有这样的感觉：它是一种心理错觉。因为GPT为了更像人，它把自己的输出的信息做得很好，语气和语调都有变化。那么人的话就会觉得，我在跟一个真人去沟通，这会有一定的心理上的影响，这个也需要考虑在内。所以呢，AI参与的时代已经到来了。你说因噎废食，这事肯定是不可能的。你说因为我可以在OpenAI的帮助下做坏事了，那我们把OpenAI干掉吧，这个肯定不对，不能这么想这个问题。</p>



<p>在这里面，可能需要更多的主动干预。什么意思呢？就是现在的GPT其实已经不再是刚开始的时候那个GPT了。差异在什么地方呢？刚开始的GPT是没有记忆的，每一次你去跟它聊天的时候，它认为是一个新人。你只要开始一个新对话，这就是一个新人。你以前跟它说的所有东西它都会忘记。一方面是保护我们的隐私，另外一方面其实也是节省它的成本。如果它每次记住我们在说什么，我们到底是谁的话，它的存储成本是非常高的。</p>



<p>而现在的GPT，特别是GPT-4及以后的版本，它里面有一种叫长期记忆的功能。比如说，我跟它说我住什么地方，它能记住的。你下次再说的时候，它会说：“这地离我们家不远。”它能把这些事情记在一起，然后跟你一起说出来。所以呢，它已经可以收集和记录很多我们的特征了。当有上下文去跟它联系沟通，涉及到各种危险活动的时候，它其实可以更好地来判断我们的意图。当它进行这样的判断之后，就可以更早地去报警，或者更早地通知有关部门进行干预。这个其实是可以做到的。</p>



<p>甚至呢，它也可以说我不去报警，但是我可以在给你的内容中进行一些筛选，或者进行一些引导，而不是说我仅仅是劝诱一下：“使用爆炸物很危险，买枪一定要有手续。”这个就像一个片汤话，稍微差那么点意思了。有些人可能会说：“我再去问这个问题，我就不告诉你了。”有些人可能你说：“我去问这个。”</p>



<p>烟花跟炸药的这个差异的时候，他会告诉我。但是当他发现一个人反复在跟他沟通，而且有一些实施这种犯罪的动机，或者说有一些隐藏的苗头的时候，再去问相应的问题，你就可以不回答这个事情。其实，ChatGPT是可以做到的，他也应该去做这件事情。这是一方面，另外一方面是什么呢？OpenAI现在为了扩展更大的用户群体，它是有匿名使用者的，就是你不用登记信息，你就可以来用，而且还可以直接进行电话使用。就是你可以给他打一个电话，001800ChatCPT，这样的一个电话号码，打进去以后，它就直接替你服务了。</p>



<p>在这两种情况下，去服务的时候就要对结果进行过滤了，就是可能要进行更严格的审核，哪些东西就不能出来了，因为你没有办法判断对面到底是人是狗，是成年人是未成年人。这种情况下，如果按照传统的已经登陆用户的标准来去服务的话，那么就会有问题。这就是这种AI厂商可能未来在这一块需要做的更多的事情。</p>



<p>最后呢，遇到可疑行为，该报警的时候还是报警吧。我觉得在这一块上，中国政府采取的某些手段还是有可取之处的。就是我们不能把AI聊天引擎作为搜索引擎来管理，而是应该把他们作为社交媒体平台来管理。中国政府去管理这些AI助手的方式就是这样：你们是社交网络平台，大家可以在这里发布信息，可以在这里传播信息了。那么这样的管理的话就会严格很多。而社交媒体平台的话，他们去报警的这个频度一定是比搜索引擎要高得多的。</p>



<p>搜索引擎刚才我们讲，他不会针对个人行为报警的，他只会针对一个地区里边的一某种异常搜索现象去进行汇报。但是社交媒体平台是有可能因为个人行为去报警的。所以呢，OpenAI可能未来也是需要考虑，你是一个社交媒体平台了，而不能仅仅简单地把自己作为一个搜索引擎去逃避责任了。如果发现某些个人的行为比较诡异的话，还是应该去通知相关部门，提前预防，提前处理。这个我觉得是未来的一个方向吧。好，这一期就跟大家讲到这里。</p>



<p>感谢大家收听。请帮忙点赞，点小铃铛，参加 Discord 讨论群。也欢迎有兴趣的、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>政府效率革命：马斯克与DOGE部的合作能否彻底改变美国，缩减2万亿美元的预算，裁撤80%的联邦政府雇员</title>
		<link>https://lukefan.com/2024/11/18/%e6%94%bf%e5%ba%9c%e6%95%88%e7%8e%87%e9%9d%a9%e5%91%bd%ef%bc%9a%e9%a9%ac%e6%96%af%e5%85%8b%e4%b8%8edoge%e9%83%a8%e7%9a%84%e5%90%88%e4%bd%9c%e8%83%bd%e5%90%a6%e5%bd%bb%e5%ba%95%e6%94%b9%e5%8f%98/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 18 Nov 2024 14:05:51 +0000</pubDate>
				<category><![CDATA[Musk传奇]]></category>
		<category><![CDATA[AI应用]]></category>
		<category><![CDATA[AI技术]]></category>
		<category><![CDATA[AI监管]]></category>
		<category><![CDATA[DOGE操作]]></category>
		<category><![CDATA[DOGE部]]></category>
		<category><![CDATA[SpaceX]]></category>
		<category><![CDATA[Twitter改革]]></category>
		<category><![CDATA[代表性领导者]]></category>
		<category><![CDATA[企业文化]]></category>
		<category><![CDATA[企业管理]]></category>
		<category><![CDATA[企业裁员]]></category>
		<category><![CDATA[全球政治]]></category>
		<category><![CDATA[公众参与]]></category>
		<category><![CDATA[公共事务]]></category>
		<category><![CDATA[公开透明]]></category>
		<category><![CDATA[共和党总统候选人]]></category>
		<category><![CDATA[创业投资]]></category>
		<category><![CDATA[制度改革]]></category>
		<category><![CDATA[削减成本]]></category>
		<category><![CDATA[去中心化]]></category>
		<category><![CDATA[去监管]]></category>
		<category><![CDATA[商人策略]]></category>
		<category><![CDATA[国会]]></category>
		<category><![CDATA[国会监管]]></category>
		<category><![CDATA[国际策略]]></category>
		<category><![CDATA[塞缪尔·奥特曼]]></category>
		<category><![CDATA[外部咨询]]></category>
		<category><![CDATA[外部监督]]></category>
		<category><![CDATA[多余法规]]></category>
		<category><![CDATA[多样性]]></category>
		<category><![CDATA[大规模裁员]]></category>
		<category><![CDATA[川普]]></category>
		<category><![CDATA[川普竞选]]></category>
		<category><![CDATA[开放透明]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[摩根资产]]></category>
		<category><![CDATA[政府创新]]></category>
		<category><![CDATA[政府开支]]></category>
		<category><![CDATA[政府改革]]></category>
		<category><![CDATA[政府改革策略]]></category>
		<category><![CDATA[政府效率]]></category>
		<category><![CDATA[政府效率部]]></category>
		<category><![CDATA[政府机构]]></category>
		<category><![CDATA[政府裁员]]></category>
		<category><![CDATA[政府运作]]></category>
		<category><![CDATA[政府透明度]]></category>
		<category><![CDATA[政府采购]]></category>
		<category><![CDATA[政策创新]]></category>
		<category><![CDATA[政策改革]]></category>
		<category><![CDATA[效率提升]]></category>
		<category><![CDATA[效率提升策略]]></category>
		<category><![CDATA[数据清洗]]></category>
		<category><![CDATA[明朝官员]]></category>
		<category><![CDATA[有效管理]]></category>
		<category><![CDATA[法律监管]]></category>
		<category><![CDATA[流程优化]]></category>
		<category><![CDATA[流程再造]]></category>
		<category><![CDATA[流程管理]]></category>
		<category><![CDATA[流程精简]]></category>
		<category><![CDATA[特斯拉]]></category>
		<category><![CDATA[特朗普与马斯克]]></category>
		<category><![CDATA[特权消除]]></category>
		<category><![CDATA[白宫]]></category>
		<category><![CDATA[社交媒体影响]]></category>
		<category><![CDATA[社会影响]]></category>
		<category><![CDATA[科技创新]]></category>
		<category><![CDATA[税收政策]]></category>
		<category><![CDATA[简化结构]]></category>
		<category><![CDATA[组织变革]]></category>
		<category><![CDATA[组织管理]]></category>
		<category><![CDATA[经济影响]]></category>
		<category><![CDATA[网络平台]]></category>
		<category><![CDATA[联邦政府]]></category>
		<category><![CDATA[联邦雇员]]></category>
		<category><![CDATA[联邦预算]]></category>
		<category><![CDATA[联邦预算削减]]></category>
		<category><![CDATA[能源效率]]></category>
		<category><![CDATA[脏数据]]></category>
		<category><![CDATA[舆论影响]]></category>
		<category><![CDATA[色彩丰富]]></category>
		<category><![CDATA[行业标准]]></category>
		<category><![CDATA[裁员策略]]></category>
		<category><![CDATA[规范化管理]]></category>
		<category><![CDATA[财政政策]]></category>
		<category><![CDATA[资源分配]]></category>
		<category><![CDATA[跨国公司]]></category>
		<category><![CDATA[透明管理]]></category>
		<category><![CDATA[采购供应链]]></category>
		<category><![CDATA[锦衣卫]]></category>
		<category><![CDATA[预算削减]]></category>
		<category><![CDATA[预算控制]]></category>
		<category><![CDATA[预算调整]]></category>
		<category><![CDATA[马斯克]]></category>
		<category><![CDATA[马斯克的策略]]></category>
		<category><![CDATA[高效管理]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1703</guid>

					<description><![CDATA[哇哦，家人们，今天我们来聊聊马斯克的DOGE计划！🌟这个话题绝对会让你打开新世界的大门！！我跟你说，马斯克一出手，居然要裁掉80%的政府雇员，简直就是“天大雷霆”！为何想不通的事情在他手上就能玩转得这么轻松？🤯

首先，大伙儿都知道马斯克一向是个动作外放的人，一图搞定一切！他接手Twitter，抄起了水槽子就打算搞得轰轰烈烈，结果几个月后，团队从8000人大幅缩减到1500人！这神操作背后到底藏着什么玄机？😱

所以，马斯克现在要把这个模式搬到政府里，成立一个名为政府效率部的机构来实施“简化管理”的策略！想想看，这能行吗？👀

不过，想得简单，落实可不怎么容易。毕竟政府里藏着千丝万缕的利益关系，人人都有份儿，马斯克动刀的时候，绝对会引起“哀鸿遍野”！而且这背后涉及的数据流转、监管的问题，真是一场令人发指的挑战啊！😅

然后再提提AI的魔力吧！使用AI来解决政府的效率低下问题，哇，听着是不是感觉前景一片光明？AI不仅可以帮助清理杂乱无章的数据，更可以用来实时监控和管理整个流程，让一切都变得快如闪电！⚡️

不过，话说回来，马斯克的这一招“白痴指数”可不止是玩笑，这可是科学！💡要想撇除老百姓的被坑史，他懂得通过“透明采购”来减少预算中的黑洞把戏。而就像我们之前提到的嘛，那些高价采购的螺丝，一掐就是天文数字，真是让人心痛不已！

最后，马斯克这波操作若成真，会不会引发政府颠覆的巨变呢？这手法比起他的SpaceX火箭发射可丝毫不逊色！🚀

啊啊啊，家人们，看完是不是也对马斯克的DOGE计划充满了猎奇感？让我们一起期待接下来会有什么样的精彩故事吧！💖记得关注我，后续将为大家带来更多有趣的动态！

政府效率革命：马斯克与DOGE部的合作能否彻底改变美国，缩减2万亿美元的预算，裁撤80%的联邦政府雇员

在此影视频道，我们探讨了马斯克与川普共建的新构想DOGE部及其在政府中的潜在影响。马斯克希望通过削减政府雇员80%、发展AI技术以及反对过度监管，提高政府效率。回顾他在Twitter的改变，我们分析他可能如何在政府推行同样的策略：通过彻底简化结构，实现费用削减，如同他在Twitter从8,000人裁员到1,500人一样，推动政府从每年6.75万亿美元预算削减2万亿。此外，随着DOGE部的运作，马斯克如何利用公开透明的措施与监管的取舍，来减缓政府滞后的困局。马斯克的大胆构想，结合AI技术的应用，体现了对传统官僚机构顽疾的挑战，甚至可能给美国政府及当然远方的欧洲带来翻天覆地的影响。期望通过这些革新举措，能实现与Twitter改革的双赢结果。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="政府效率革命：马斯克与DOGE部的合作能否彻底改变美国，缩减2万亿美元的预算，裁撤80%的联邦政府雇员" width="900" height="506" src="https://www.youtube.com/embed/mRC69X0ccWQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p><br>大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲马斯克的DOGE到底能不能起作用的事情。</p>



<p>马斯克在川普确认当选的第一时间，就发了照片，搬着水槽子去白宫了。这个照片呢，是白宫的照片，加上他自己把这个水槽子的照片抠下来拼出来的。他刚刚买下脱鞋带以后，440亿美元买下来，就搬着水槽子就去了。当时还谁也搞不清楚他到底要干嘛。</p>



<p>很快就原形毕露，把8,000人的Twitter裁员成了1,500人的X。而且呢，好像还运转得不错。现在马斯克要去当政府效率部的这个部长，他有没有可能真的把政府雇员也干掉这么多呢？马斯克自己已经大嘴巴说了，号称要解雇80%的联邦政府雇员，要将联邦政府的机构数从450个减少到100个左右。而且呢，要去监管，很多原来的监管法案都要直接删掉，很多的开支要直接去掉，准备呢，从每年的6.75万亿美元的联邦预算中削减2万亿。这都是马斯克自己张嘴说的，不是咱们替他编的。</p>



<span id="more-1703"></span>



<p>另外一位DOGE的部长，维维克·拉玛斯瓦米，这个名字一听就是个印度人。哈佛大学生物学学士，耶鲁大学的法学博士，这个倒是跟某人很像嘛。学完化学以后，学了个法学博士出来，然后呢，企业家、投资家、作家，生物医药公司的这种老板，也曾经入股过BuzzFeed。在BuzzFeed里头，也是敦促和执行了大的裁员。</p>



<p>这哥们挺逗的，他是今年的共和党总统候选人之一，是跟川普竞争过共和党的候选人，这个位置，川普赢了吧，然后呢，就成为川普的这种迷弟了吧，跟马斯克一起掌管这个DOGE。那么真的有可能像Twitter那么搞吧？咱们先不说美国政府，咱先说Twitter，他到底是怎么能够从8,000人到1,500人呢？</p>



<p>其实很简单，原来的系统呢，维持不动，就是先这么能凑合着。但是裁员的时候，大家知道它是有一个滞后性的，不是说我今儿裁了以后，明天晚上嘎嘣就崩了。裁完了以后，这个系统依然还可以凑合跑。在这个时候。</p>



<p>基本上是写了一套新的东西，就是原来东西不动，然后写新的。写完了以后再去设法去替换，哪个写好了，我就直接上去替换掉以前旧的那个系统，实际上直接就扔掉了。原来8,000人维护那个旧系统，现在就是1,500人维持了一套新的Twitter。</p>



<p>但是现在的X跟以前的Twitter一样吗？不一样了，已经完完全全是两个不同的东西。虽然我们从界面和感受上来说，差异并没有那么大，但他的用户数应该是在上升的，活跃度也应该是在上升的。然而他的商业价值和收益是在下降的。现在挣的钱可能连原来的一半，甚至可能只有原来的20%多。他能挣到的其他的钱都没有了。</p>



<p>很多人都说，哎呀，现在这个政府多么慢啊，做事情拖拖拉拉的，就应该像马斯克当年去搬迁Twitter机房那样去处理各种事务。当时马斯克说，要把Twitter机房从什么地方搬到德州去，IT的主管就讲了说不行，我们需要几个月的时间进行规划，进行搬迁，才能保证这个事情是可以顺利完成的。马斯克自己就跑到SpaceX，找了几个工程师，开着车就奔这个Twitter机房去了。到那就把闸一拉起来，咔嚓把线拔了，然后把服务器装车就弄走了。到那边筐子就装上，一天搞定，还是几天就搞定了。说你看这多能干，这样不是也把事搞定了吗？</p>



<p>但是真的有人希望看到政府里头也这么干吗？因为Twitter搬机房的时候，最后到底损坏了多少服务器，损坏了多少数据，宕机了多长时间，在Twitter机房搬迁的过程中，以及搬迁之后造成了多少次宕机，这个事情是没有人出来宣传的。大量的外围团队和流程就直接砍了，比如说代码的工程管理。因为我们知道写软件这个东西，不是说你一个人坐这儿坑坑坑写就完了，还有很多跟工程相关的事情，比如需求、稳当、品控，还有大家一起协调做的事情。</p>



<p>马斯克接手Twitter以后，就极大地简化了，没有那么多乱七八糟的东西，包括像什么持续集成这些东西。</p>



<p>基本上都没了。持续集成什么东西？就是我在这边有很多的这种环境，设置我这边写完代码以后，它就会自动地进行测试，自动地进行部署迁移，然后我就可以再去写新代码。这些系统都是需要人维护的，他把这些人全裁了。各种的代码品控，包括很多原来Twitter的开源项目维护开源关系的这些人也都干掉了。很多跟公益相关的这些团队也都干掉了。就老老实实的，你就给我做Twitter，其他的事情都不要想啊。他搞这样的一个事情，更不要说原来的什么多样性，什么男的女的，黑的白的，什么这些，通通都干掉了。</p>



<p>经过马斯克改变的Twitter呢，除了Twitter本身的事之外，其实他不干什么别的事。这样的公司，其实让我们想起另外一个有趣的公司，是谁啊？叫拼多多。除了卖货，除了砍一刀，其他啥也不干，也不投资，也不做任何其他的这个乱七八糟的业务。Twitter其实现在就整，变成了一个这样的公司。</p>



<p>咱们今天呢，就是来吃瓜的。DOGE，咱们来吃这个瓜，但这个瓜到底怎么个吃法？讲政治嘛，这事我肯定不懂，咱们都是按照这个搞笑的方式来啊。所以呢，咱们就先列个小提纲，咱们看看这个DOGE到底说点什么。</p>



<p>第一个，DOGE到底是个什么性质，这事是要搞清楚，这个部长到底是干嘛的。第二个，咱们稍微回顾一下这个政府的效率，他为啥这么低，低和高之间到底差在哪。因为我最近呢，也是再跑一些流程，哎呀，那叫烦。第三个呢，是AI对于政府效率的帮助啊，这个肯定还是要讲一点AI。第四个呢，就是反对监管到底是一个什么样的情况，为什么要去反对监管，然后是削减预算。</p>



<p>再往后呢，就是咱们再猜一猜可能的玩法，这个事呢只能猜各种的，未来的走向应该都会出人意料吧，咱们看看能猜中多少啊，这也是一件有趣的事情。首先呢，DOGE到底是个什么，它的全称呢叫政府效率部，他并不是一个政府部门啊，所以马斯克马部长这件事呢，其实这个说法是不对的，他是独立于白宫室外的一个咨询机构。</p>



<p>他是为政府提供建议，为公众负责。而且呢，是要受到联邦咨询委员会法案的这种管辖。就是美国的国会山外边有很多，我们管它叫院外集团或者叫游说集团。相当于马斯克是领了这样的一个单位在工作。为什么是这样呢？川普川大爷没有给他一个真实的这种部长头衔吗？如果真的设这样的一个部门，真的去找一个部长搁这的话，这个不是川大爷直接拍脑袋就可以搞定的事情。他还得再到国会审批，增加一个部门，增加相应的人员，增加相应的预算，将权力重新分配。这个过程，估计川普这一个任期未必能搞得定。而且呢，这种真正的部长的任命，也不是说川普自己就可以决定的。川普是可以任命部长，但这个部长最后还是要到国会去审批去通过啊。如果通过不了的话，他是上不了任的。所以这是第一个比较麻烦的事情。</p>



<p>第二个麻烦是什么呢？就是你一旦真的跑去内阁去当部长，就有这种潜在利益冲突的问题，需要切割手里边的公司和股票。那马斯克肯定还是要好好管理他的特斯拉、SpaceX和脑机接口。他不可能说，我真的把这边都切了，然后上那去做这个政府官员啊。所以呢，这个是不可能走到那一步的，马斯克也不可能同意真的跑去当这个部长。</p>



<p>所以两边呢，都是说：“咱们就这样吧，我们这个DOGE就不停地去发报告，不停地去游说各种国会议员，向国会议员提交各种各样的报告，让他们根据这个报告再去调整法案，再去做各种决策。”就真正能够让政府动起来的，最终的签字的人还得是国会。这就是DOGE啊，像这样的一个东西。</p>



<p>那么政府为什么效率低，大家有没有想过这个问题？很多人想，政府就不就是效率低吗？他这帮人就是坏啊，他就是想拖着我。其实还真不是这么回事啊。跟大家讲一个最近的一些经历吧，最近呢也是在倒腾一些家里的事情，有时候需要跟一些还不算政府部门的人去打交道，哇，那个过程叫痛苦啊。我发现是什么呢？就真正在去折腾的事情是什么？是数据，是各种各样的数据。</p>



<p>那你说数据这个事，1就是1，0就是0，会有什么问题吗？你这个事情就想得太简单了。你比如说，要证明我爸是我爸，我妈是我妈这件事情，首先说，哎，我的户口本上写没写，写了。户口本上有记录的，户籍所在地说不用开证明了，你户口本上写着呢，你跟谁谁谁什么关系。但是呢，不同的地方说不行，你还要来开证明。你到不同的部门去开，他每一次开出来的证明，实际上很多呢，都是手写的，非格式化的这种证明，等于这些东西又混杂出了新的数据。而且这些数据里头可能还有些问题，对于我来说，或者对于整个的流程系统来说，我的数据叫脏数据，因为我这个里头有一些不符合规则的地方，或者说属于出乎意料的东西，我也写到这个数据集里去了。</p>



<p>等到下一个人再去处理相应的数据，或者下一个流程再需要处理这个数据的时候，就卡住了，就过不去了。他也不能说我一拍脑袋说，这个事这么做吧，那个事那么做吧，他也得要让我再去开一堆证明，然后确定说这个事情可以往前走。所以这个数据是非常非常麻烦的。每一个人在每一次去证明你爸是你爸，你妈是你妈的这个过程中，实际上是一边是在对原来的数据进行对齐，另外呢，又在往整个的政府系统里头堆积各种各样的脏数据。</p>



<p>等到下一个人需要去证明这件事情的时候，你需要再看一次，最后越来越多的这种垃圾数据在一起，这是政府效率低的一个非常主要的原因，因为所有的事务都会不断地产生数据，而且这些数据呢，都是不干净的数据，最后你是没法去让他协调起来的。这是第一个很重要的原因。</p>



<p>第二个重要原因就是监管，你总是要让大家相互监管起来。完全没有监管的政府，这个咱们是经历过的，是非常非常可怕的。其实咱们的政府也是有监管，虽然他不接受媒体的监督，但是呢，他上面也有达摩克里斯之剑，是什么？死够了人要撤职。所以他们也不敢乱来，总是要有一个平衡的。越是这种像民主政府，不像咱们这全过程民主，他们只能号称民主。</p>



<p>那这个监管流程就会变得非常麻烦。刚才我们讲，数据就这么混乱了，各个政府部门之间的流程都这么混乱。那你想，这个过程得多复杂。很多的政府就只能是什么？变得越来越庞大，变得越来越缓慢啊。任何政府组织机构都有不断自我膨胀的本能。</p>



<p>咱们这呢，举一个最典型的案例，比如说明朝。明朝皇帝朱元璋上台的时候说：“我一定要杜绝以前缺乏监管的问题，要能够监管官员，让他们不敢贪腐。”因为他自己穷人出身嘛，那怎么办呢？整个锦衣卫吧，就是功勋子弟出身，要穿锦袍为皇帝负责，你们去监管天下官员。</p>



<p>后来过了几个皇帝以后说：“这不行啊，这锦衣卫权力太大，管不了他了。”怎么办？再来一个吧，东厂，叫东籍事厂。一帮太监说：“你们再去管锦衣卫啊，看看他们干什么了。”再过几天，东厂也管不了了，怎么办？西厂，咱们再把他们都管起来。</p>



<p>这个事情就是这样的一个膨胀过程，非常现实的一个方法。没有哪个人说：“哎，我们是不是消减一个部门？”锦衣卫搞不定了，我们把锦衣卫改一改，没有啊；或者说：“我们把锦衣卫干掉，换一个新的部门来管。”也不行啊，因为原来的这些人呢，手里有既得利益，而且他们熟悉以前的这些数据怎么产生的，熟悉原来的流程。你真把他干掉了以后，你发现：“哎，这事玩不转了。”就跟那个裁员裁的大动脉是一样的。</p>



<p>所以这件事情只能是越来越大。这也为什么，就像刚才我们讲，马斯克干掉Twitter这个方式，我一下把原来的系统全不要了，能凑合转一天就凑合转，不能凑合转呢，就直接让它瘫掉，出了些这种档机、出bug、丢数据了，我认了。但是我在这个过程中，叽里咔嚓做了套新的，让它继续转起来。从外边看，好像差别不大。</p>



<p>很少有人敢像他这么干活，绝大部分人都是文官系统加锦衣卫，加完锦衣卫加东厂，加完东厂加西厂，绝大部分的政府都是这么干的。后面呢，咱们也讲一讲AI对于政府的帮助。AI其实可以解决刚才我们说的很多的问题，包括数据的问题、监管的问题、流程的问题。AI就是现在的大模型。</p>



<p>其实是可以做一个什么事呢？就是把比较混乱的数据里边的信息抽取出来。他可以抽丝剥茧，知道说啊，我们在哪个地方进行一次验证，就可以了。他可以把这个流程数清楚，原来就必须要人干。就算是所有数据都在计算机里头，你也得对，你要把各种的数据对起来，非常麻烦。像我们以前做大数据，干的第一件事是什么？叫数据清洗。你拿了数据来以后，怎么去清洗？怎么能够找到每一个数据跟数据之间的关系？把数据之间出错的地方，怎么把它处理掉？什么叫数据出错？原来我们说了一个人只能有一个性别，然后有人上头写了俩，那你看你怎么去处理这个问题？记新的还是记旧的，还是怎么去记？这个叫数据处理的过程。调不同的数据之间是什么关系，把这东西理顺了以后，才可以进行数据清洗，然后才可以再做后边大数据的事情。这个事是非常非常麻烦的，但AI的话是可以极大提升效率。所以马斯克也好，那位印度老兄也好，他们去搞新的这个政府效率部，其实是可以拿AI出来帮助，提高极大效率啊。咱们先不说这里头有没有人说人心险恶，我就想让他慢，这个事咱先不管他。咱就说大家都惦记把事办好的情况下，那AI是有帮助的啊。现在中国政府其实已经大力的开始上AI了，甭管他上成什么样，甭管上完了以后他会变得多么强大吧，反正咱们现在已经开始上了。这是跟AI相关的事情啊。再往后呢，就是反对监管。监管这种事情，其实就跟咱们前面讲的这个锦衣卫、东厂、西厂的一个过程是一样的。这个事怎么办？不知道，上个监管法规吧。那个事怎么办？不知道，上个监管条文吧。这种东西呢，其实是政府在不断的增加自己的权利，不断的说，哎，这是个新鲜事物，原来我的法律法规、我的规章制度没有规定过啊，那多上一个监管。特别是最近对于AI的监管，大家都是准备上。所有上监管的时候，有一个很大的特点是什么？就是由会计师和律师给工程师上监管。大家听懂这意思了没有？可能研究出东西来的人是科学家，把产品做出来的人是工程师。</p>



<p>等你去制定监管法规的时候，一帮会计师、一帮律师，以当前的状态、静态的市场，就给你分析出来了。而且还分析得头头是道，因为他们可能一辈子学习的就是这些东西。然后给你上各种监管条款，特别是当我们对待巨大的未来、不可预知的结果的时候，所有的这些监管其实都是有害的。美国其实相对来说，监管已经算是松一些了。你像日本、加拿大，还有像欧洲很多的国家，那个监管比这严得多。</p>



<p>现在呢，其实有几个大的监管，对于美国来说要去松动。第一个是AI监管，第二个是区块链监管。美国的区块链监管没有咱们严，但是在全世界范围内其实已经算严的了。这两天，比特币蹭蹭蹭往上涨，也是因为川普上台了。如果未来对于区块链，或者叫加密货币的监管可以放松的话，是不是这一块就又可以继续往上涨？说川普上台，可以涨到10万美金一个比特币。如果相应的监管放松，同时可以灵活地让大家去持有、去交易、去使用，该纳税去纳税，能够把这事做完的话，那这个比特币可能就真的可以进入到大家的日常使用之中去了，那价值也会继续上升。</p>



<p>另外呢，这两天，山姆·奥特曼又开始说马斯克的好话了。前面一段时间搞得剑拔弩张，两边官司还在打着。到现在，马斯克最新的起诉OpenAI的官司还没有撤诉，但是山姆·奥特曼已经出来说了，马斯克还是很厉害的。在OpenAI早期，我们主要是靠马斯克开的支票才能活下来。为什么讲这话？马斯克是押宝押对了，跟着川普上台了。山姆·奥特曼，你得小心一点啊，因为山姆·奥特曼他所期望的监管，跟马斯克所期望的监管是完完全全两种不同的监管。</p>



<p>OpenAI希望的是什么？他们跑得最快，我跑前头，我们跟政府在一起，关起门来把规则制定好，对其他所有的AI进行监管，这是他们希望的。而对于像马斯克这种说我要去做效率部的人来说，他们所谓的反对监管，就是说不要关起门来做监管，咱把门打开，究竟为什么这么管，为什么那么管，咱把这东西掰出来掰扯掰扯。</p>



<p>没有谁比谁强的啊。你一旦关起门来，那OpenAI等于就彻底垄断了。这就是山伯特曼这一两年里，他很努力在做的事情。这个是完完全全两条不同的路。另外一个开元大模型的老大，现在日子也没有那么好过啊。扎克伯格小扎同学，川大爷在上台之前就讲过，说我一旦上台了， 我要把上一次选举作弊的人都抓起来啊，包括扎克伯格。扎克伯格马上就拍马屁说：“哎呀，我看着川普觉得好伟大。”去除监管之后的话，AI肯定会有非常大的不同。那么监管与不监管到底有什么差别？有可能说，AI会不会有问题，会不会伤害人类？这个监管呢，就是有一帮杞人忧天的人坐在那想说，他到底会怎么伤害人类的啊。咱们看看以前的老黄历，以前的计算机到底是怎么伤害人类的，再看看科幻小说，再拍拍脑袋。一帮会计师、一帮律师就坐这制定规则， 说怎么监管吧。实际上最后AI到底怎么去伤害人类，这个事他们压根就想不到。那么去除监管的方式是什么？没有犯罪之前，大家都认为是无辜的。出现问题了，我们就把这个漏补上，在这个地方打个补丁啊，说这个以后不允许了。再往前发展，发展到一段时间以后说：“哎，又出了一个问题啊。”那我们再往前走。他现在想经常走这条路。如果说我一开始就有极大的能力， 说我都管起来的话，一定是背后有一个更强的AI才能管别人嘛。就是原来OpenAI想走这条路，现在就不一样。那么去除监管以后，可能最头疼的人不是美国，也不是扎克伯格，也不是山姆·奥特曼，最头疼的人应该是欧盟。他们现在希望靠监管这件事情把他摁住啊，不希望他去改变欧洲人整个的生活状态。但是美国一旦去除监管以后，AI就会快速发展，可能最终还是会形成整个欧洲使用美国的AI系统这样的一个形式。他自己的AI产业就彻底没戏了，一点机会都没有了。就算是欧洲人说：“哎，我研究AI的能力很强。”他们也会跑到美国去研究，因为那边是不会先预判你有罪的，他先预判你是无罪的。</p>



<p>所以，这帮人就会跑到美国去，最后欧洲继续去使用这些美国产品。用完了以后觉得不爽了，你要想罚钱吧，这还没有那么容易了。川普上来以后，你敢罚美国公司的钱，我就收拾你。他不像是原来拜登似的，联合欧洲一起去对抗俄罗斯，对抗中国。欧盟去罚了美国公司的钱，他也不说什么。川普说了，提姆·库克找我了，欧盟罚了他的钱，说这个事不行的，等我上台了以后，看我给你把场子找回来。就跟那个流氓大哥的感觉似的。</p>



<p>欧盟以后碰上川普这样的总统，碰上非常没有监管，或者说完全在无监管状态下成长起来的美国AI的话，那后边的日子就会很难过。再往后是消减预算。消减预算这件事呢，其实特别有意思。众议员麦克·沃尔兹出示过一小包，采购价格高达9万美元的螺丝，这是在今年2024年的一次听众会上。他去问军方说：“你为什么要买这么个东西？”当然军方的回应是什么呢？是这个螺丝呢，是可以满足特殊需求的。</p>



<p>这个采购呢，军队也好，或者政府也好，他们采购会喜欢干什么呢？叫采购白名单。我就从这些人里头采购，这些人为了进入到采购白名单里头，就会想办法花钱。所有这些都会成为成本，会加到螺丝里边去。第三个呢，政府采购的定价结构本身就比较复杂。你不能说我上亚马逊上去买一袋螺丝，甚至说我到中国淘宝上去买一袋螺丝，那玩意多便宜啊。</p>



<p>但是你说我们军队买，还有运输的费用，还有包装的费用，还有安装的费用，还有测试的费用，所以他就会比外面买的要贵很多。而且呢，他们申请这种经费，本身的流程也很复杂，都是钱啊。你说有一个人坐在这给你做审批，他不要发薪水吗？而且这坑位级别可能还不低，薪水还不低了，那这一袋螺丝就变成9万美金了。</p>



<p>那么就要想办法把这些钱消减掉。我看有很多人去测算说，美国政府一年花多少钱，国防开支有多少，社保或者说各种的医疗有多少，其他的各种的福利有多少。他们把这些块都分开了，就想说这马斯克怎么可能把它砍掉呢？这个东西是这样的，军事开支里头……</p>



<p>你把9万美金的螺丝变成，比如说900美金，或者变成9,000美金，这不就砍掉很大一块了吗？你又不是说把整个的预算都砍掉。所以很多人是用这个误导的方式，告诉你说马斯克肯定干不成的，就是应该这么多钱。就是要在这个供应链里头，找可信的供应商。每年你就想吧，把这个供应商拉在一块评比一次，给他们开开会，做做思想教育。那这个成本，你不得在这9万美金的螺丝里头付掉吗？这个是真正现在他们能够去减掉的东西。</p>



<p>那么可能的玩法到底是什么呢？就是马斯克呢，有一个叫白痴指数的名言。什么叫白痴指数？他会把一个商品所有的硬件成本加在一起，算算多少钱，再看看这玩意卖多少钱。如果差的越大的话，这个白痴指数就越大。一旦白痴指数大了以后的话，他就很有可能去做这块的生意。说来，我们做这块生意吧，我们把这帮白痴干掉。</p>



<p>他当年跑到俄罗斯去买二手火箭，一支火箭1,800万美金。最后他算了算，所有的硬件加一块，大概也就值个二三十万美金。说这玩意白痴指数太高了，说我们一定要自己造火箭，这个太赚钱了。他就开始造。而且他造火箭的过程也是如此，把很多原来经过验证的必须要去遵循的规则都扔掉，不再去遵循这些规则了。我从头开始做。完了以后呢，再去研究说这东西行不行。</p>



<p>对于马斯克来说，这个9万美金的螺丝，肯定是白痴指数极高的一个东西。对于他来说呢，也很简单，就是你不要去给我讲什么供应商白名单，你就老老实实的招标采购。你把你的需求写清楚，我们就要这样的螺丝。谁能够提供这个东西，你就去弄。弄完了以后，如果说这个东西比亚马逊上的贵，那我们就买亚马逊的。剩下的，比如运输、安装、测试这些东西，我把这块成本拆掉。你说我需要做测试了，那我就干脆说，在整个采购过程中，我们加一个测试环节就完了。你不要把所有的螺丝都给我加上9万美金。他肯定会这么去搞，他把原来封闭的系统要彻底展开。因为大家想，一旦是封闭系统，一定是我首先怎么上岸。</p>



<p>怎么能够坐在里头，能够有权利来吃这桌饭，然后再去研究说我到底应该提供什么商品？很多学校里边的食堂都做得很难吃，为什么？因为所有食堂供应商，他99%的成本和心思都在研究出我怎么入围上了。只要我入围了以后，那我一定得把所有成本挣回来。</p>



<p>所以这个是马斯克的有可能应对方式。另一个呢叫第一性原理。所谓第一性原理就是质疑一切，所有人以前的惯有流程，所有人原来做的标准我都可以质疑。咱们看看啊，把这些东西扔掉了，是不是可以有更好的解决方案？</p>



<p>他最喜欢干的事情是利用社交媒体，让流程重新开放透明。很多事务都是关起门来干的啊。你比如说，像刚才咱们讲采购供应商这个事情，我们先开着门做第一次选择，选择完了以后关起门来做第二次，再关起门来做第三次。一层一层拔高以后，里边就会出现各种各样的黑话，外边人听不懂了。很多不合理的东西就慢慢变得合理了。</p>



<p>现在呢，就重新把盖子给你掀开，大家看着到底怎么回事。以公众的认知为基础，对这个东西进行检查。你就像现在马斯克说，我们要把所有这些预算拿出来去评比，哪个最愚蠢。评到最愚蠢的预算，我们来写报告，建议国会把它砍掉。</p>



<p>那么在这个过程中，哪怕说公众是无知的，最后评测完了以后的这个非常不准确，你还可以发动这个舆论攻势嘛。你Twitter在手里边，就开始骂这些政府官员，说：“哎，你们怎么可以这样？”因为美国还是有很多人要去参加选举的，你被骂完了以后这怎么弄？</p>



<p>现在美国的这帮议员们，已经非常开心地在Twitter上跟马斯克互动了。他是Twitter基本上算第一大网红，或者第二大网红的这个状态。谁去说：“哎，我支持你这个DOGE的活动，哪哪哪有问题了？”马斯克会马上转发你的Twitter了。那破天的富贵直接一瓢就浇到手上了。你说这玩意算贿赂不啊？这个应该也算是一种小的贿赂。但他们就觉得我们不要想这么多，咱们就往前跑就完了啊。所有那些说我们就顶着干，我就一定要来告诉他：“说你们才愚蠢呢。”</p>



<p>要指责民众是蠢蛋的这些人，他们就有可能会被Twitter和这些社交媒体直接骂得狗血淋头。而且，很多的数据和隐私在互联网大数据和AI面前是无处遁形的。你说这个事情有什么问题，那个事情有什么问题，肯定是能给你找出来。你说你没有专家，那你不懂，互联网上什么专家都有。你千万不要觉得，真的能够靠一个小圈子把门关起来，能够把这个利润维持住，这是不太可能的。</p>



<p>但是DOGE呢，具体怎么做，咱们不能瞎猜。咱们现在也就算是开心一下，猜一下吧。不过有一点是必然的，这阻力一定会非常巨大。毁人钱财如杀人父母嘛。DOGE的运作的最核心，是要让很多人破财。你还不是说让人失业，你说我把政府雇员裁掉80%，这个其实没多少钱。但是像刚才我们讲的，9万美金买一袋螺丝，整个的产业链利益链能有多大，那只是一袋螺丝。后头还有飞机，还有坦克，还有各种各样奇奇怪怪的东西，每一样东西的采购，可能都是一层一层这么做起来的。</p>



<p>如果把这套系统打破了，很多人是会找他拼命的，甚至跑去刺杀他，我觉得都是有可能的。实在是太多钱了。现在要重新开放市场，把竞争开放给更多的人，一定是会损害那些原来关起门来做生意的人的利益。像什么波音，像什么洛克希德·马丁，既得利益肯定会出来找事。而且在修改的过程中，一定会出各种纰漏。只要是动起来了，出什么事故，出什么故障是必然的。</p>



<p>但是这个呢，就跟原来马斯克自己做SpaceX就不一样。马斯克自己做SpaceX，摔火箭他就认了。他摔了三颗火箭，第四颗发上去了。那前三颗火箭一个一个摔下来的时候，他自己就顶住了。这件事情其实是搁在政府里，是顶不住的。你比如说马斯克说，我们今天要把这个预算干掉，这些人就会说，你看这里有儿童受到伤害了，那里有什么问题了。他们也会制造这种舆论。这个马斯克他顶得住吗？顶不住。咱们讲一个题外话，有没有人想过，最近，为什么网易、字节跳动等一堆人在反腐？原因其实也很简单，既得利益集团搞不掉嘛，这个时候就只能反腐。那么，这会不会成为马斯克克服压力的一种新的方法？可能性也是很大的。他一方面公布萝莉岛相关的数据出来，那可能就可以消除一部分的阻力；另外一方面，以马斯克的能力，以及他背后掌握的Twitter和这种算力来说，他其实是可以发现很多腐败行为，直接去举报就完了。</p>



<p>所以这件事情可能也是他推动DOG往前走的一种方法。我记得我原来看过一本书，是《杜鲁门传》。就是美国在罗斯福死后，顶上来当总统的那哥们。在当总统之前，他是参议员。当时有一个叫杜鲁门委员会的地方，这个委员会干嘛的呢？就是在二战期间，如果发现有贪腐行为了，请向这个委员会写信来举报，我们来调查这个事情。这就是当年的杜鲁门委员会。</p>



<p>现在DOGE就完完全全有可能像杜鲁门委员会那样去运作，说现在你们谁看到哪里有不合理的事情，哪里有问题了，请向Twitter发。发完了以后，艾特一下马斯克或者艾特一下DOGE，他们后台的AI就看到了，你可以快速地开始进行调查，开始收集证据，然后形成报告，就可以往前走了。我记得当时里头就写的，有人给杜鲁门写信说：“你好，我是通用还是哪飞机制造厂的设计师，我发现我们的飞机上用的很多零件是不合格的。我流着眼泪给你写，因为我儿子正在前线开飞机，我不希望这样的飞机到前线，然后把我儿子害死，所以我一定要去举报这个事情。”当时就有很多这样的事情发生。</p>



<p>现在的话，DOGE正常运作起来以后，这种事情会非常多。最后，我们来想一想，如果政府真的像马斯克搞Twitter那样运作起来会怎么样？可能也是让原来的体系继续跑两天，在这个时候快速地建立新体系，替代原来的体系，并且提供服务。这件事是不是有可能？有难度啊，现在已经看到，虽然川普这一次任命了一大堆80后跟他一起去组建新政府。</p>



<p>但是呢，原来整个的政府体系并不是那么容易去替代的。马斯克肯定是希望能够不断地通过外部的这种，甭管是鲶鱼震动也好，或者是各种敲打也好，能够让系统再重新动起来。他希望尽可能地消除一些特权，像刚才我们讲的这种集中采购就属于特权。当特权消失了以后，其实就不需要那么多制衡和监管。</p>



<p>制衡监管监管的是谁？当时朱元璋建锦衣卫，监管的是文官集团；建东厂监管的是锦衣卫；建西厂监管的是东厂。所以监管的都是特权。你把特权干掉了，你要那么多制衡监管干嘛使？他就变快很多了嘛。</p>



<p>但是呢，也是必然会出很多问题的。就像Twitter不断地宕机啊，就像猎鹰火箭先炸三回才能飞得起来，这个过程是一样的。但是呢，有可能会有一些补救和安全措施，避免一些重大灾难的发生。这个事呢，还是有可能能够搞定的，特别像马斯克这种，本身执行力就特别强。你真的出现什么问题了，那他掏钱干呗，或者就直接忽悠一嗓子：“哎，Twitter上的朋友们啊，大家现在赶快去捐钱进入啊！”他没准也可以能够解决一定的问题啊。</p>



<p>这可能就是马斯克DOGE运作一段时间以后会变成的一个现象吧。当然了，作国内来说，我觉得DOGE的运作会给我们提供更多的瓜，让大家觉得这个事情还可以聊一下，那个事情还可以聊一下。作为我这种Youtuber来说呢，感谢马老爷子以及川老爷子赏饭吃，也就如此了。他们又干出点什么奇怪的事情来，又可以录一期节目来扯淡。这就是我们今天讲的第一个故事，主要还是跟大家开心一下。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ilya彻底离开OpenAI！超级对齐团队解散！Sam Altman，摆脱束缚，OpenAI从此一骑绝尘？还是ChatGPT未来堪忧？</title>
		<link>https://lukefan.com/2024/05/21/ilya%e5%bd%bb%e5%ba%95%e7%a6%bb%e5%bc%80openai%ef%bc%81%e8%b6%85%e7%ba%a7%e5%af%b9%e9%bd%90%e5%9b%a2%e9%98%9f%e8%a7%a3%e6%95%a3%ef%bc%81sam-altman%ef%bc%8c%e6%91%86%e8%84%b1%e6%9d%9f%e7%bc%9a%ef%bc%8c/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 21 May 2024 00:36:36 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI监管]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[GPT-2]]></category>
		<category><![CDATA[GPT-4]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[XAI]]></category>
		<category><![CDATA[不许骂街协议]]></category>
		<category><![CDATA[亚马逊]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人类价值观]]></category>
		<category><![CDATA[伊利尔]]></category>
		<category><![CDATA[伦理]]></category>
		<category><![CDATA[宪法AI]]></category>
		<category><![CDATA[展望]]></category>
		<category><![CDATA[山姆奥特曼]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[弱到强泛化]]></category>
		<category><![CDATA[微软]]></category>
		<category><![CDATA[拉玛3]]></category>
		<category><![CDATA[挑战]]></category>
		<category><![CDATA[政治正确]]></category>
		<category><![CDATA[期权]]></category>
		<category><![CDATA[未来]]></category>
		<category><![CDATA[机遇]]></category>
		<category><![CDATA[民间机构]]></category>
		<category><![CDATA[泄露公司机密]]></category>
		<category><![CDATA[社会]]></category>
		<category><![CDATA[科技]]></category>
		<category><![CDATA[端到端模型]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[股票]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[董事会]]></category>
		<category><![CDATA[视频生成]]></category>
		<category><![CDATA[语音到语音模型]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[责任制]]></category>
		<category><![CDATA[超级对齐]]></category>
		<category><![CDATA[道德]]></category>
		<category><![CDATA[闭源模型]]></category>
		<category><![CDATA[非营利组织]]></category>
		<category><![CDATA[风险]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1256</guid>

					<description><![CDATA[大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲伊利尔彻底离开超级队，其团队解散，而OpenAI ... <a title="Ilya彻底离开OpenAI！超级对齐团队解散！Sam Altman，摆脱束缚，OpenAI从此一骑绝尘？还是ChatGPT未来堪忧？" class="read-more" href="https://lukefan.com/2024/05/21/ilya%e5%bd%bb%e5%ba%95%e7%a6%bb%e5%bc%80openai%ef%bc%81%e8%b6%85%e7%ba%a7%e5%af%b9%e9%bd%90%e5%9b%a2%e9%98%9f%e8%a7%a3%e6%95%a3%ef%bc%81sam-altman%ef%bc%8c%e6%91%86%e8%84%b1%e6%9d%9f%e7%bc%9a%ef%bc%8c/" aria-label="阅读 Ilya彻底离开OpenAI！超级对齐团队解散！Sam Altman，摆脱束缚，OpenAI从此一骑绝尘？还是ChatGPT未来堪忧？">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Ilya彻底离开OpenAI！超级对齐团队解散！Sam Altman，摆脱束缚，OpenAI从此一骑绝尘？还是ChatGPT未来堪忧？" width="900" height="506" src="https://www.youtube.com/embed/Y9foH-MVUH8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲伊利尔彻底离开超级队，其团队解散，而OpenAI彻底失去束缚，可以一骑绝尘的事情。</p>



<p>从去年11月，山姆奥特曼突然被董事会开除，又经过了三四天戏剧般的反转，反转再反转之后，山姆奥特曼终于干掉了董事会，王者归来。从那以后，作为董事会里边唯一留任的伊利尔就再也没有出现在公众视野之中。很多人都在猜说这个人到底干嘛去了。</p>



<p>当时这个事情发生的时候，所有人就在猜测，说伊利尔是不是要离职，伊利尔什么时候离职啊。但是呢山姆奥特曼一直都是体现出政治家的这种手腕，一直在称呼伊利尔来为啊我最亲密的朋友。但是伊利尔呢一直没有发声。最近一次发生是在跟埃隆马斯克的诉讼过程中，由伊利尔的账号在里边说了一句话啊，但是也就仅此而已了。</p>



<p>伊利尔在这一段时间里他就彻底不见了，现在呢终于知道说啊他离职了啊，正式离职。而且呢根据已经从OpenAI里边离职的一些其他跟安全相关团队的啊，这些人去讲说伊雷尔从去年11月份到现在半年的时间就再也没有回到过OpenAI的办公室，一直是在进行远程工作，远程协调。对吧这个人等于就消失了，现在半年了啊终于离开了。</p>



<span id="more-1256"></span>



<p>那么超级队其团队呢，在伊利尔离开办公室也就这半年期间，日子过得是非常非常痛苦的啊。为什么呢？因为整个团队最上面的老大是伊利尔，他会负责啊，跟公司内部的各个的管理层啊，以及各个部门进行沟通与协调。别人在干什么？别人做了哪些事情？哪个事情需要超级对齐团队去对齐对吧？这个事情原来都是伊利尔去做的，那么他如果不到办公室来，或者说他可能就完全属于一个半退休状态，那么所有的事情就都没有办法看。而大家知道， … …超级对齐，也就是 OpenAI 内部的所谓安全团队。他们要保证 OpenAI 所做的各种 charge GPT 的版本，它所输出的内容是符合人类价值观的。很宏大的一个目标。你要保证这件事情，这么多的这么多的团队和产品，这么多的算力，大力出奇迹吧。堆在一起，大家各自做各自的事情。那你怎么能够保证说，我最上面这个安全团队，能够把所有的问题都解决掉呢？这必须也要有足够的人力物力，特别是算力的投入。前面承诺说，给你们 20% 的算力，这甭管 OpenAI 自己有多少，20% 是你的。结果等他们要去要这个算力的时候，就经常得不到。想去跟其他的人去沟通，想去跟公司高层去要东西的时候，这个中间的桥梁，这个做沟通的人都不见了。那么他们的日子就很难过。</p>



<p>在这一段时间里头呢，超级对其团队的人员在不断的流失啊。一个一个的在离开。有些是被开除掉的。开除的原因呢是泄露公司机密，但是具体泄露了什么 OpenAI 也没说。然而出去了以后呢，他们也不说。原因也很简单，所有从 OpenAI 离职的这些人，他们都会签一份极其严苛的协议啊。这个协议的名字呢，我们就不跟大家详细讲了，大家基本上认为叫不许骂街协议。哈哈为什么叫这样的一个名字呢？他就规定你一旦离开 OpenAI 以后，不允许说跟 OpenAI 有关的事情，这算保密，也不允许诋毁 OpenAI，不许骂街。而如果违反了这个协议会怎么办呢？大家知道，像这些在 OpenAI 里面上班的人啊，他们的薪水有大量的都是 OpenAI 的期权与股票，这一部分都算是质押，一个人质一样的。我就搁这了。你如果出去了以后骂街，我就直接把这块给你没收了。这些人可能本来去的时候就都已经是大牛了，你想他们都是从谷歌挖人。谷歌呢，薪水多高啊？</p>



<p>那么，挖进来的时候，大家给到的都是期权。而且这几年来，open AI 的估值涨得飞快，所以他们每个人手里可能都握着几百万美金的相关期权。这个时候你如果敢骂街的话，我给你把这几万美金给你扣了。那么他们肯定还是要啊，比较谨慎和小心的啊。</p>



<p>但是也据说有一些很有勇气的人，在离开 open AI 的时候拒绝签这个东西，说我就不签了，钱我不要了，我就要出去说这个，等待他再说出一些更加劲爆的东西。</p>



<p>那么 open AI 的这个超级对齐团队的，他们到底是怎么干活的？对吧？这个是我们一直比较关心的问题。</p>



<p>对于不同的大模型公司来说有不同的安全策略。其实在安全上一直在内部进行争吵，特别是他们从一个非营利组织的方式开始啊。第一个开始吵架的是谁？还不是伊利尔。是前面做 aceropic 的那个兄妹两个，他说，我觉得你们 open i 做的东西不够安全啊，我们要自己出去单独做。</p>



<p>他们离职了以后，单独做了一家公司，也就是 aceropic 啊。那么他们做的 cloud，现在做的 cloud 3 的 opens 模型，已经在各方面啊或者在很多方面吧，超越了 PPT4。</p>



<p>他们使用的方式呢，叫宪法AI。什么叫宪法AI？就是说他有一些很强制性的简单规则，直接放到这个大模型里头去。正常情况下，我们是把所有的东西搁在一块训练，训练完了以后呢，具体哪一个权重高一些，哪一个权重低一些，你可以调。但是呢，并没有那么绝对。</p>



<p>但是像宪法 AI，就是说我给你一些很强制性、很绝对的基础的规则，你就拿去使用，然后呢我保证输出的所有的结果啊都是符合这些规则的。首先，安全是首要考量。所有有害的内容均不输出。</p>



<p>其次，尽量确保有效性。输出内容应具有价值。</p>



<p>这是anceropic采取的第二种方式，即介绍了open AI的超级对齐方法。超级对齐旨在使open AI的模型输出结果与人类价值观一致。具体而言，通过以小空大的方式，使用相对较小的安全模型（由GPT2训练）来监督较大的模型（如GPT4）的输出。这种安全模型会对GPT4的输出进行审核和讨论，以协调和确保结果的对齐。</p>



<p>另外，他们提出了“弱到强泛化”的概念，意在训练小模型后，对大模型进行泛化处理，使其能处理之前未见过的内容。通过一定的规则，小模型仍然能够对大模型输出的内容进行泛化处理。</p>



<p>最后，在其发表的论文中，他们讨论了如何从弱到强地处理这些泛化问题。这个过程是一个增长和沟通的过程，在协调PPT4输出内容的过程中起着重要作用。</p>



<p>现在，问题来了——问题出在哪里？\n大家知道，OpenAI最近推出的各种大模型，如Solar端到端视频直接生成的模型。就是你输入视频，输出视频，中间没有什么文字这些东西。然后PPT4O语音到语音的端到端模型。它开始玩这些东西了。这些东西上来以后，刚才我们讲的，你靠弱到强泛化，靠GPT2去监控GPT4，这样的玩法你是玩不转的呀。</p>



<p>但是在这个过程中呢，你想去继续往前走的方式是什么？很简单啊，就是你需要投入更多的人力、物力，以及算力。更重要的是算力，让这个小模型有更强的能力进行更广泛的这种训练。然后才可以说，去对OpenAI的一些新产品进行监督，保证它能够对齐。结果现在还做不了。</p>



<p>要申请算例的时候，人家不给我。我去问人家说你那个系统在做什么，这个事到底是什么原理，他也不告诉你。那你这个时候他就没法去工作了啊。所以，现在这些离开的超级对鞋团队的人啊，对于OpenAI来说，对于山姆奥特曼，都是相对来说比较失望的。</p>



<p>咱们刚才讲了anceropic，讲了OpenAI，后边还有两个。一个是拉玛3，这个是开元大模型里边的领军人物，梅塔出来的啊。他使用的安全方式是什么呢？他用了一种叫做“安全性和有效性的激励训练法”。他在进行数据训练的时候，在进行拉玛3训练的时候，他让拉玛3出各种各样的答案。当他出了这种不安全答案的时候说哎，这个事不对，给你一个负向反馈。出了安全的结果，出了有效的结果，你注意除了安全之外，还要有效啊，不能一本正经的在这说废话，这事是不行的啊。</p>



<p>出了这样的结果以后，就会对他进行正向反馈。这过程呢，其实很像养孩子哈。小孩长大的过程中，这事做得好，给颗糖吃；那事做得不好，打手板记住了没有。然后呢，拉玛3说我记住了，这是拉玛3处理的方式。就是他也是有安全机制的，然后谷歌呢，属于比较奇葩的啊，因为呢公司实在太大，内部部门非常多，所以他牵扯的也很乱。</p>



<p>所以谷歌的这个政治正确，是很多个部门一起下手，就把Gemini搞得，这就只能说一些废话了啊，或者说他很多的内容输出就受的限制非常非常大。甚至前面他们出画图功能的时候哈，隐瞒这2的时候各种正人正确，把所有的人都画成黑人，被人嘲笑。</p>



<p>最后只能功能撤回啊，这是谷歌现在的安全状态。刚才我们总结了全世界最靠前沿的四个大模型公司啊，他们各自的安全策略是什么，以及open AI的超级对齐团队遇到了什么样的问题。各种端到端的模型做出来以后，这个超级对齐是越来越难做。如果在这个时候没有一把手的支持，就是没有最上面管理层的支持，那么其他所有的啊，跟他们去要配合的这些团队要接受他们安全审核的这些团队，那你在这个时候就没法去跟他配合啊。</p>



<p>为什么其实很简单，伊利尔肯定是一个叛徒，至少在这6个月里，头大家也在站这个队。你既然说我们都去站山盟奥特曼的队，那么伊利尔手里边这个团队如果我们配合他好了啊，给他好脸色看了，那你这个屁股坐的歪不歪啊。对吧所以这个事他就完全没法整的一个事情。现在呢，超级对集团队就是彻底解散掉了啊，除了他已经走的这些人，剩下的这些人呢就说你们就打散了吧，进到各个团队里头去啊，你们跟每一个团队去商量说你们怎么对齐就完事了啊。</p>



<p>这后边是准备这么去干，那你说这样干行不行呢，肯定不行啊。对吧因为咱们就想open AI在干的活是什么，它实际上在训练一堆的模型，所有这些模型里头可能有些能够稍微对齐一点点，有些可能就对不起了，对吧。这玩意就跟我们在一个学校里边带了一堆孩子在这上课一样。那总有成材的，有不成材的，对吧？但是最后只要是产品发布了，成材的、不成材的，你都得给人用啊。万一哪一个出了问题，那么后面的安全事故、安全的问题一定会变得更多。这个没什么好说的。</p>



<p>咱们现在这么长时间里头，open AI大量的产品堆在那出不来，可能也是超级对齐团队在里边的啊，一定起了作用吧。啊，他说你们这些产品我们超级对齐团队不签字，你就不可以发。这个可能性都是存在的。</p>



<p>再往后超级对齐团队没了，那么就是每一个团队的老大。比如说这个人是负责GPT4O的，那么他就问说嘿，咱们开个会吧啊，我们从超级对齐团队分了两个人，我们自己对自己的这个超级对齐这件事进行确认，就完了，那我是不是大家签个字啊，举个手投个票，咱们这个事就算集体决议一下啊。我们GPT4O已经够安全了，可以发布了吧，他就会干这样的事情。</p>



<p>那这些人，等于就没有一个独立判断的权利了。我们可以期待的是，open AI会快速的发布大量的产品出来，已经没有上面卡脖子了吧。但是呢这些产品出来以后，翻车的概率也都不低哈，其实可能都会翻几次啊。这个是离开了欧鹏 AI的超级对决团队打散了以后的结果。</p>



<p>那我们来想一想，超级对齐这件事对我们到底有没有价值了？其实我一直觉得他们自己做这个事啊，呃价值是有问号的啊。为什么呢？就是人类价值观，什么叫人类价值观？谁说的清楚谁说了算，是中国人说了算，是美国人说了算，还是男的说了算，女的说了算，左派说的算还是右派说了算？每一个事情到底如何算是符合人类价值观，这个事本身是没标准的。那我们都是按照很左的方式去搞吗？正是正确多元化啊，像谷歌翻车那把似的，让他画一个二战欧洲战场，结果发现德国士兵好多是黑人，或者你给我画一个中国什么什么战争。发现所有的士兵里头，也是各色人种都有。这就算是符合人类的价值观了吗？对吧，这个本身是有问题的。所以现在很多人就认为，说所谓人类价值观，这件事本身并不是一个很明确的标准。</p>



<p>整个的社会是怎么办这个事情的呢？他是通过选举啊。有一堆民选官员。他们呢会在一个模糊的范围内，对各种的价值观的事情进行一定的判断，而且他们还不敢判断特别多。他们只敢在法律范围内去做，因为你到价值观这，其实有好多已经超过法律范围，已经到道德范围了。</p>



<p>你如果用道德标准，而不是法律标准，去要求Open AI的各种大模型的话，这个事他是有问题的。所以我并不认为说这个事情应该由一个公司来做的，而是应该比如说由民选政府，或者说由一个有合法性的政府机构来去处理。什么叫人类价值观的问题，像中国现在这种方式，其实我觉得是有借鉴意义的啊。</p>



<p>刚才我们讲了，美国的各大公司是怎么看这个事的。对吧，美国政府在这件事情上说：我还要想一想，对吧，我还没想明白，说我们坐在这讨论吧啊。美国政府呢，其实对于各种AI公司或者AI大模型的限制，相对来说是比较宽松的。哎，那么中国是怎么干这个事的？</p>



<p>中国很简单，咱们发牌照，按照社交媒体的方式来管理。这个叫什么？叫责任制，你这个大模型出了责任了，来暂停你自己去整改，整改完了以后，然后去检查，没什么毛病我再给你开，等你下次再出问题了，哈哈停停牌休息了，然后你再去干，去拔网线。</p>



<p>在这个过程中呢，中国的各大大模型公司就会相对来说比较谨慎，因为很多的错误是一票否决的，你出一次这公司就不见了。这一点上呢，咱们不说技术怎么样啊，也不说这个方法好不好，但是我觉得效果还可以啊。美国人可以去学习一下。</p>



<p>对于未来的展望，面对新兴的这种端到端的……大模型的挑战，到底应该如何去应对这个事情啊？这件事情呢，我觉得有可能会再出现一家新的公司，或者不一定是公司了。有可能再是一个非营利组织，比如说伊利尔牵头说：“我们再做一个非盈利组织，或者说再做一个在政府下面的什么样的组织。我们来去监管这件事情啊，通过税收或者通过一些什么样的方式去训练一些模型。最后你不通过我们这个模型的审核，或者不通过我们模型的监管，我就直接给你吊销牌照啊。”或者做这些这样的事情。这个可能性是存在的。</p>



<p>即使美国政府不像中国政府这样说直接把这些人收编进来成立一个政府部门，他也有可能成为一个民间机构啊。民比如说马斯克出钱，因为这个伊利尔原来也是啊，马斯克找进去的。那么现在比如马斯克出钱说：“我们再拉几个有钱人，咱们成立一个中间的这种民间机构，或者说是这种非营利组织啊，对现在正在流行的各种开源模型、闭源模型啊，咱们进行去监管。出现问题我们就直接写报告，发各种的信息出来。”这个事情的可能性也是存在的。</p>



<p>但是还有一种可能，就是伊利尔最后走向answer Rapik那条路啊，再成立一家新公司，像这种人成立公司后边肯定等着给钱的人都排队啊，排出二里地去。这事没什么毛病，成立新公司，在做新产品，做完新产品以后再进行一次竞争。这个事呢，可能性也是存在的啊。</p>



<p>但你说会不会被收编啊，比如说马斯克说来XAI给你虚位以待，这个可能性也有啊。谷歌千万别去啊，那已经是老大难公司了，进去了以后那扯皮还扯不过来呢。还有呢，就是比如像英伟达啊、梅塔啊微软啊都有可能，但是微软我觉得可能性小一点吧，包括亚马逊。其实都是有可能会去跟他们合作的，后面我觉得这个事情还有待啊继续的发展。</p>



<p>至于open AI。到底会不会给整个的社会带来很大的损害？我觉得这个事呢，是不可避免的。他就只管往前走，造成一定的伤害之后，他承担责任就好了。哎，没有哪个小孩是说我从小教好的啊，还是要一个跟头一个跟头跌过去。</p>



<p>Open AI现在呢，跌的跟头有点少，而上一个跌的跟头，也就是去年11月啊，把山姆奥特曼干掉。虽然我们都很开心看到山姆奥特曼回来，但是当时我就做了节目讲说，这种回归了以后，他的心态会发生一定的扭曲，而且他整个的监督机制或者内部的一些制衡机制就已经被破坏掉了，未来啊是蛮有隐患的。</p>



<p>今天看的就是这个隐患，已经啊彻底的不可调和，爆发掉了啊。但是现在呢，还只是一个小的隐患。等真的Open AI出现什么东西，他的产品给整个社会造成巨大损失的时候，那才是啊真正比较大的隐患爆发。但是这件事呢，不可避免，也不是说爆发一次 Open AI 就挂了，就是 Open AI 爆发了这样的问题，以后再重新爬起来才可以走的更远。</p>



<p>好啊，这就是今天我们要讲的。伊利尔离开超级对其团队解散，Open AI 一系绝尘的故事。今天这个故事讲到这里，感谢大家收听，请帮忙点赞点小铃铛，参加 Disco 讨论群，也欢迎有能力有兴趣的朋友加入我们的付费频道。</p>



<p>再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
