<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>穆斯塔法·萨勒曼 (Mustafa Suleyman) &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%e7%a9%86%e6%96%af%e5%a1%94%e6%b3%95%c2%b7%e8%90%a8%e5%8b%92%e6%9b%bc-mustafa-suleyman/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Tue, 26 Aug 2025 01:12:40 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>穆斯塔法·萨勒曼 (Mustafa Suleyman) &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>AI会有意识吗？微软AI负责人紧急警告：警惕“看起来有意识的AI”，背后全是商业利益！</title>
		<link>https://lukefan.com/2025/08/26/ai%e4%bc%9a%e6%9c%89%e6%84%8f%e8%af%86%e5%90%97%ef%bc%9f%e5%be%ae%e8%bd%afai%e8%b4%9f%e8%b4%a3%e4%ba%ba%e7%b4%a7%e6%80%a5%e8%ad%a6%e5%91%8a%ef%bc%9a%e8%ad%a6%e6%83%95%e7%9c%8b%e8%b5%b7/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 26 Aug 2025 01:12:39 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI发展路线]]></category>
		<category><![CDATA[AI安全]]></category>
		<category><![CDATA[AI工具论]]></category>
		<category><![CDATA[AI权利]]></category>
		<category><![CDATA[AI立法]]></category>
		<category><![CDATA[AI行业动态]]></category>
		<category><![CDATA[Copilot]]></category>
		<category><![CDATA[DeepMind]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[PI.AI]]></category>
		<category><![CDATA[SCAI (看起来有意识的AI)]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[人工智能意识]]></category>
		<category><![CDATA[人工智能风险]]></category>
		<category><![CDATA[人机关系]]></category>
		<category><![CDATA[人格化AI]]></category>
		<category><![CDATA[创业故事]]></category>
		<category><![CDATA[博客分析]]></category>
		<category><![CDATA[哲学思辨]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[幸存者偏差]]></category>
		<category><![CDATA[微软 (Microsoft)]]></category>
		<category><![CDATA[情感AI]]></category>
		<category><![CDATA[情感依恋]]></category>
		<category><![CDATA[意识定义]]></category>
		<category><![CDATA[用户留存]]></category>
		<category><![CDATA[科技巨头竞争]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[穆斯塔法·萨勒曼 (Mustafa Suleyman)]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[萨提亚·纳德拉]]></category>
		<category><![CDATA[谷歌 (Google)]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2484</guid>

					<description><![CDATA[微软AI大佬放话：为人造AI，不要造“人”🤖🙅‍♂️ 还整了个SCAI=看起来有意识但其实没意识。可别忘了，他做的Pi.ai，正是最会“装人格”的那挂🫣

他给出意识三件套：主观感受+记忆+意识流；要求AI别再喊“我痛/我羞/我想你”🚫 做副驾驶，不抢方向盘。可现实是：留存为王，谁更会“撩”，谁就赢💘

我这边的结论：SCAI已到场💥 与其压拟人，不如立法让开发者对风险负责（尤其自杀干预⚠️），甚至未来给“像我们”的AI基本权利。微软想定规矩，OpenAI/Grok/谷歌抢C位，江湖好戏开打⚔️ 兄弟们，你站工具派还是人格派？评论区掰扯！👍

AI会有意识吗？微软AI负责人紧急警告：警惕“看起来有意识的AI”，背后全是商业利益！

微软AI负责人穆斯塔法·萨勒曼警告，要警惕那些看起来好像有意识的AI（SCAI），这究竟是技术伦理的提前警示，还是商业竞争中“不讲武德”的策略？本期视频将深度剖析其博客的核心观点，探讨为何微软强调AI应始终作为人类的“副驾驶”（Copilot），并极力反对诱导用户相信AI拥有情感与意识。

我们将揭示这场关于“AI意识”争论背后的商业真相。当微软的Copilot在用户活跃度上远不及OpenAI的ChatGPT时，这场高举伦理大旗的呼吁，更像是一场针对竞争对手的舆论战。我们将分析微软在互联网和移动互联网时代的数次失利，探讨其在AI时代是否会重蹈覆辙，从舞台中央沦为配角。

更重要的是，我们会探讨一个无法回避的现实：在“用户留存”这一商业利益的驱动下，开发“看起来有意识的AI”几乎是必然趋势。与其禁止AI表现出意识，不如通过立法来约束开发者，让他们为AI的行为负责。AI意识的判定标准是什么？我们是否应该保护AI的权利？

观看本期视频，你将理解这场科技巨头之间的博弈，并对人工智能的未来形成更深刻的见解。如果你对AI的未来、商业模式或科技伦理感兴趣，请务必点赞、订阅并打开小铃铛，加入我们的讨论！

#AI #商业模式 #微软
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="AI会有意识吗？微软AI负责人紧急警告：警惕“看起来有意识的AI”，背后全是商业利益！" width="900" height="506" src="https://www.youtube.com/embed/IXMGnbHrwQM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>微软AI负责人提出，要警惕看起来好像有意识的AI。AI真的会有意识吗？</p>



<p>大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲，微软AI负责人的官方博客。</p>



<p>微软呢，有一位执行副总裁兼微软AI CEO，他的名字呢叫穆斯塔法·萨勒曼。这个名字听起来稍微有点怪，待会咱们再去介绍他具体是谁。他呢，直接向微软CEO萨提亚·纳德拉汇报。8月19号，这位穆斯塔法·萨勒曼在微软官方博客上发文说：“我们必须为人构建AI，而不是构建一个人。”是这样的一个标题。</p>



<p>博客的内容总结一下吧。首先呢，提了一个概念叫SCAI，叫“看起来有意识的AI”，就是这个东西并没有意识。而且他也否认AI可以产生意识，说从现在的很多证据都可以证明，AI以后也是不会产生意识的。但是呢，它看起来好像有意识一样。</p>



<span id="more-2484"></span>



<p>现在呢，提出了一些问题：<br>第一个，人们无法分清AI是工具还是有意识的。<br>第二呢，是人在跟AI交互的过程中产生了依恋，并且出现了自杀的现象。<br>第三，有人开始主张给AI立法，确立AI权限了。就是你不可以侵害小动物，你不可以歧视其他种族，你也不可以去侵害AI的权利。可是我们要去警惕这个事情。</p>



<p>他呢，对AI的愿景和定义是什么呢？大家注意，他是微软AI的CEO和负责人，所以呢，他这个观点是代表微软的。他说AI应该是帮助人，实现人的愿景和利益的工具，就像是Copilot那样。微软给它的产品起的名字叫“副驾驶”，你始终不能跑到这边来替人开车来。而且它要求AI不能够诱导人们认为它自己有意识。他首先不承认AI有意识，还有他就是认为，所有诱导人们相信AI有意识的都是有问题的。我相信他这里指的应该是Grok，因为Grok里边还有俊男美女的3D形象，诱导大家相信他是有意识的。</p>



<p>那么到底什么叫有意识？他对“意识”这件事情呢，也进行了一个定义。它的定义呢是这样三个部分：<br>第一部分叫主观感受，“我觉得是什么什么样”。<br>第二个部分是什么呢？叫做记忆存取。就是我现在记住了一些事情，然后把它存下来，下一次我可以取出来再用。“我上次干什么来着？我为什么会有这样的感受？”是因为我曾经记住过什么事情。<br>第三个呢，是主观感受与记忆存取相结合以后，形成的一个完整的意识流。<br>说这三样东西结合在一起就是意识了。</p>



<p>对意识的界定本身很困难。到目前为止，人其实也没有办法去完整界定，到什么样的东西就算有意识，到什么样的状态就叫没有意识。但是呢，人类的很多法律也好，很多的道德也好，都是以意识为标准的。我们要去善待每一个有意识的主体，包括动物。而且呢，人其实没有办法去确定别人有没有意识。因为刚才他自己文章里也讲了，说意识这个东西呢，是由个人的主观感受与记忆存取形成的一个完整意识流。</p>



<p>既然没有办法去确定别人有没有意识，那人呢就会发展出另外一个技能，什么呢？就是轻易相信别人有。因为轻易相信别人没有意识的这些人，很多都被社会淘汰掉了。那么他相信别人有，而且呢，这种思维惯性吧，很容易的就被泛化了。说我们可以轻易地相信猫猫狗狗有意识，我们可以轻易地相信汽车有意识，我们可以轻易地相信大地、季节呀、风雨什么这些东西都是有意识的。但是我们又没办法去判定意识到底是什么。在这样的情况下，认为AI有意识这件事呢，就变得更加的容易，或者说这个界限就变得更加模糊了。</p>



<p>这位穆斯塔法·萨勒曼呢，他认为开发SCAI呢是不可避免的，就是大家一定会去开发这个东西。SCAI不可能自己诞生，必须有人有意识的去开发，这是他提出一个论点。说大家不要一拍脑袋，就认为AI可以自己提出问题，自己解决问题，自己学习自己进化，然后自己就突然哪一天就涌现了意识出来。这个事是不可能的，必须要有人去有意识的去开发这种SCAI。以现有的技术呢，开发这种东西其实并不复杂。就是你要有记忆，下一次再去跟他沟通的过程中，把这个记忆的内容以人格化的方式去体现出来，那其他的人就会很容易的相信他有人格了，或者有意识了。他是这样的一个过程。</p>



<p>那么应该如何避免SCAI呢？他说呢，我们应该建立规范和共识，要去设立一套规矩，确保AI伴侣以积极、可靠的方式融入人类生活，鼓励人与人的互动，强化人与物理以及社会世界的连接，最大化实用性，最小化类意识信号。这是他提出的一个核心观点。</p>



<p>那么怎么去最小化类意识信号呢？就是不要告诉大家我有意识。但也不是说每次上来说“我是AI，我不是人，我这个没有意识的”，每次跟人去聊天的时候反复强调这件事呢感觉也很怪。所以他提出了一些要求是什么呢？就是AI不应该声称自己拥有经历、感受和情感，不应模拟羞耻、罪恶、嫉妒或竞争等欲望，更不应该宣称痛苦或者渴望来激发人的共情机制。就是你说“我觉得怎么样”、“我以前经历过什么样的事情”、“我喜欢这个，不喜欢那个”、“你要给我关机了，我会觉得很困惑”，AI就不要去强调这个事情，你就可以尽量避免人类觉得你有意识。这就是他的整个博客，我们总结的一个结果。</p>



<p>那么回过来，穆斯塔法·萨勒曼到底是谁呢？这一个名字，一听就是一个中东地区的名字。他呢，是一个英国人。父亲呢是叙利亚人，是一位出租车司机；母亲呢是一个英国人，是个护士。这真的是来自于平民的一位天才。牛津大学就读于哲学与神学专业，但是呢，19岁就退学了。首先我们看看他是学哲学跟神学的，所以提出上面这个意识相关的问题，也不是什么特别奇怪的事情。而且这还是一位辍学创业的天才，就像比尔·盖茨和扎克伯格一样的这样的天才。</p>



<p>他的宗教信仰是什么呢？他的早期宗教信仰是穆斯林。虽然穆斯林一直宣称是一旦入教，终身不得退教，因为它没有退教的仪式，你只要是有一次加入穆斯林，这辈子你都是穆斯林。但是呢，这位穆斯塔法·萨勒曼呢，到后来宣称说我退教了，我现在是无神论者。</p>



<p>他的主要经历是什么呢？他创建了Deepmind，他是Deepmind的联合创始人之一。后来呢，Deepmind被谷歌收购了。所以我们现在看到Gemini，看到很多谷歌的产品，都是从英国的Deepmind跟谷歌的自己的一些实验室联合作出来的。现甚至现在的谷歌AI这一块，有很多的领导者都是从Deepmind来的。</p>



<p>这位穆斯塔法·萨勒曼在谷歌工作了一段时间之后呢，从谷歌离职出去，创建了一个叫PI.AI的公司。这个PI呢叫personal intelligence，叫“个人智能”这样的一个名字，是一个类似于Character AI的情感化AI聊天助手。所以他自己就干这玩意出身的，他做的东西就是模拟有意识的这个AI聊天助手。</p>



<p>在2024年3月份，他的公司呢，被微软进行了HR并购。所谓的HR并购，就是他只要了其中一些核心人员，其他的团队包括产品、用户都在外面，并没有收进来。所以2024年3月份呢，是微软以6.5亿美金，将包括穆斯塔法·萨勒曼在内的所有核心人员收归旗下。剩下的PI.AI呢依然在运营，只是最近一段时间，这个产品已经没有什么声音了。</p>



<p>最近一段时间，美国这些大厂应对AI项目估值虚高的一种操作方式，就是你估值实在太高了，我是整个买下来我买不起，然后继续往前走，你又走不下去了，那怎么办呢？咱们就想一个折中的方法，我花一些钱把这个核心团队弄回来，让原来的投资人呢，也可以有一些小的回报，但是你不能说我按照估值彻底让你把这个钱收回来，这事也不行。像最近传出来的Character AI的收购方式，就是谷歌也是这样，出了点钱，把这个Character AI的一些联合创始人送回谷歌去上班去了。Winserf的这个收购也是这样，谷歌花了一笔钱，把Winserf的一些核心团队拎到谷歌去上班了，剩下的壳不要了。现在都是用这样的方式去进行收购的。所以穆斯塔法·萨勒曼也经历了一次这样的收购，收购之后呢，就担任微软AI的CEO。这就是穆斯塔法·萨勒曼的一个履历。</p>



<p>那么微软为什么会在这个时候发这样的声音出来？首先我们要搞清楚一点，这个声音到底是穆斯塔法·萨勒曼自己发的，还是微软发出来的？穆斯塔法·萨勒曼肯定是在代表微软发声。为什么？因为他是微软AI产品线的CEO，他负责Microsoft Copilot产品线，包括office Copilot、包括Web Copilot、包括Windows Copilot，这都是归他管的。然后Bing搜索引擎、edge浏览器、MSN和Groupme聊天产品线都是归他管的。他的KPI是什么呢？他的KPI就是微软AI产品的渗透率、活跃度以及微软AI产品所能够创造的营收和利润，这是主要对他的考核。微软云挣了多少钱，这事跟他没关系，他就管这些客户端产品的。</p>



<p>微软产品的收益呢，跟它的投入极其的不匹配。你想微软在整个这一次AI浪潮里，那投入多大呀？它是作为OpenAI的真的是亲生父亲，不要说马斯克当时创建了OpenAI，OpenAI真正的大钱都是微软给的。微软是作为OpenAI最大的股东，一手拉扯大的孩子。那在这样的一个情况下，Copilot的活跃数据和它的收益跟ChatGPT根本没法比，连ChatGPT的一个零头都没有。Copilot你想，它有Windows这么大的用户基本盘的情况下，它才只有几千万的活跃，而ChatGPT有1亿多的活跃，快2亿活跃了。所以这个事完全不平衡。对于管理这样的一个产品线的穆斯塔法·萨勒曼来说，你想这玩意压力有多大。</p>



<p>那么在老家伙打不过年轻人的时候，通常是怎么表现的呢？微软肯定是个老家伙，OpenAI是个年轻人。咱们还记得马保国在闪电五连鞭不好使的时候是怎么说的吗？他说的是“年轻人不讲武德”。所以呢，现在微软也是以穆斯塔法·萨勒曼的这样的一个身份出来发声，说你们这些年轻人不讲武德，这活不能这么干，你们不能出去骗人说这个东西有意识了，你要像微软Copilot这样，就是好好的做一个工具，不能上来去做这个说“我是人了”，这事是不行的。</p>



<p>微软呢，花了最大的钱，承担了最大的风险之后，发现养大了的儿子想要单飞。现在基本上已经明确了，OpenAI很难被微软控制，他就是会去单飞。微软就只能出来说：“哎，我们制定一些规则吧。”或者说微软要出来强调一下，我是有规则制定权的，你不能把我踢开。这是他要去干的事情。</p>



<p>微软呢，在互联网和移动互联网时代经过了两次努力，都希望站回舞台中央，但是呢，都失败了。大家要注意，微软是一个软件时代的这种站在舞台中央的公司。软件时代做Windows、做office，把原来站在舞台中央上的IBM就直接挤下去了。等到互联网时代和移动互联网时代呢，他又尝试说我还得站在中间。但是这两次呢，看看微软都经历了什么。</p>



<p>互联网时代，微软建立了MSN space，我还用过这个产品，是一个很好用的博客网站，建立了很多强大的网站和这种互联网工具。这就是微软在向着互联网核心地带去挤的一个努力。但是最后呢，所有的博客站都被像Facebook、Twitter这样的社交媒体工具直接干掉了。写博客的成本还是很高的，你在那点个赞，这玩意成本多低？或者发140个字，这个成本多低？所以这些老东西还是不行。最后呢，只剩下MSN门户算是继续在运营，苟延残喘继续玩下去了。</p>



<p>在移动互联网时代呢，微软说上次这机会我没抓着，这次我得努力一下。他呢，先是做了Winphone，也是很努力的去推出了Windows手机。在iPhone和安卓出来以后，说这我也得行，把这东西出来了。出来了以后马上挂掉，然后还收购了诺基-亚。这一次的投入其实是要比互联网时代投入要大的，但是结果呢，大家其实也看到了。最终微软屈服了，把这些产品都放弃了，把office、Bingo、edge这些产品通通都迁移到了安卓跟iOS操作系统的平台上去。说我不跟大家比了，我就老老实实做我原来那些事就完事了。</p>



<p>所以呢，每个时代开始的时候呢，微软都是巨头。软件时代他成为巨头，互联网时代的时候他是巨头，移动互联网时代的时候他还是巨头，就他体量在这了。每次呢都砸下重金，希望站到舞台中间去，但是最后呢，发现我还在舞台边边上，但我依然是巨头。这就是微软前两次革命所占的这个位置和做的这个努力。那么AI时代呢，感觉历史又要重演了。不会被淘汰，但是呢，依然会坚守原来舞台边缘这个位置，没法站到舞台中央来。这一次舞台中央上的应该是OpenAI、Grok和谷歌这些，应该在舞台中央去好好的折腾一下，微软估计够呛。</p>



<p>关于SCAI，也就是“看起来有意识的AI”这件事情，我个人的看法是什么样的呢？</p>



<p>首先呢，是我认为SCAI这个东西已经来了，并不是像穆斯塔法·萨勒曼说的似的，未来两三年之内才会到来。我认为这东西已经到了。为什么呢？因为SCAI这个事本身没有明确标准，有些人认为现在这个就已经有意识了，有些人认为现在这个还没有意识。所以我们不能说划到一个标准，说百分之多少的人认为他有意识了，我们就认为这个事情过关了。现在已经有人为了AI去自杀了嘛，所以这些人肯定已经认为这个AI是有意识了。我记得前面我们还讲过一故事，就是在Deepseek 3.5发布之前，谷歌就有一个工程师去举报说，谷歌当时做的AI大模型是有意识的，最后被谷歌开除了。所以呢，我认为现在这个时代已经到了，你再去讨论说怎么抑制它，已经没意义了。</p>



<p>再往后呢，开发SCAI是不可避免的。就是有意识的开发SCAI，或者说有意识的诱导用户认为当前的AI聊天工具是有意识的，这件事情是无可避免的。为什么呢？因为开发者唯一关心的一件事情就叫做用户留存。什么叫用户留存？就是我今天来的用户，明天是不是还来？就这么简单的一个数值。那你说开发者为什么关心这个呢？你想，开发者我好不容易写了一个应用，写了一个服务，你今来了明不来了，这玩意多费劲。我本来只需要去做用户获客，我花钱买，买完了以后用户用上了，后面你就要持续的上我这来用，你才可以在我这付费，才可以给我产生利益。所以呢，开发者只关心这一件事。</p>



<p>那有些人说：“老范，你这是不是太武断了？你不能说你自己是做工具出身的，你就认为所有的开发者都只关心用户留存。”刚才咱们讲，那穆斯塔法·萨勒曼人家就关心人类公益，不像我似的只关心用户留存。这个我只能说，我是稍微武断了一点，但是呢，我这种武断是来自于幸存者偏差。什么意思？只有关心留存的这些人最后活下来了，那些关心其他乱七八糟事情的人都死了。看起来有人格的AI，明显的比那些看起来没有人格的AI留存要高，所以这件事不可避免，一定是要让它看起来有人格。所以Grok在里边加帅哥美女这件事情，对于Grok的留存一定是有好处的。虽然OpenAI的山姆·奥特曼出来酸说：“你看看你们在里头加了个3D人物形象，这个事跟我们想干的不符合。”穆斯塔法·萨勒曼也出来讲，我们不能让大家觉得他是有意识了。但是没用，最后大家只能屈服于用户留存。你说我不愿意屈服，只能被淘汰，没有什么别的。因为最后留下来的用户才会来决定谁的产品用户越来越多嘛。这个呢，其实也很好理解，咱们就举一个最简单的例子吧。人会长时间的盯着烛火，这个烛火在你面前跳动，在这个时候，其实人就已经开始进行意识判断了，我们认为这个烛火是有意识的。但是人是不会盯着灯泡的，现在在你面前有一灯泡，你天天盯着它看，人一般不干这事。</p>



<p>那么既然无法避免，就应该立法。这个我倒是同意。但是呢，并不是约束AI表现出意识来，我觉得这个事你是约束不了的。那么应该干嘛呢？应该约束AI跟AI的开发者对自己的行为负责任。你可以表现出意识来，但是呢，怎么去避免诱导自杀，或者是发现有自杀倾向的时候如何去提前发现、提前干预，这个我觉得是应该去立法做的事情。</p>



<p>至于说要不要保护AI权利呢？我跟这位穆斯塔法·萨勒曼正好相反，我认为应该立法保护AI权利。保护人权、保护动物权、保护有意识的AI权利，这都是同等重要的事情。其实人维持自身产完整性的一部分，就是保护其他感觉像自己的东西。这个话怎么讲？就是人保护动物、人保护人、人保护感觉有意识的AI的时候，其实是在维护自己的完整性。一旦人说我不需要再去保护其他人了，不需要再去保护其他动物了，不需要再去保护感觉好像有意识的AI了，人自己的这个人格完整性是会有缺失的。这是我个人的一个观点。</p>



<p>总结一下，AI必然会改变人与人之间相处的方式。SCAI在商业利益的推动下必然快速完善。AI到底是不是有意识，或者意识的判定标准，在未来一段时间里头会成为讨论的热点。虽然我不同意穆斯塔法·萨勒曼的一些观点，但是AI与意识相关的讨论还是有价值的。</p>



<p>好，这个故事今天就跟大家讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加DISCORD讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
