AI会有意识吗?微软AI负责人紧急警告:警惕“看起来有意识的AI”,背后全是商业利益!

AI会有意识吗?微软AI负责人紧急警告:警惕“看起来有意识的AI”,背后全是商业利益!已关闭评论

微软AI负责人提出,要警惕看起来好像有意识的AI。AI真的会有意识吗?

大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲,微软AI负责人的官方博客。

微软呢,有一位执行副总裁兼微软AI CEO,他的名字呢叫穆斯塔法·萨勒曼。这个名字听起来稍微有点怪,待会咱们再去介绍他具体是谁。他呢,直接向微软CEO萨提亚·纳德拉汇报。8月19号,这位穆斯塔法·萨勒曼在微软官方博客上发文说:“我们必须为人构建AI,而不是构建一个人。”是这样的一个标题。

博客的内容总结一下吧。首先呢,提了一个概念叫SCAI,叫“看起来有意识的AI”,就是这个东西并没有意识。而且他也否认AI可以产生意识,说从现在的很多证据都可以证明,AI以后也是不会产生意识的。但是呢,它看起来好像有意识一样。

现在呢,提出了一些问题:
第一个,人们无法分清AI是工具还是有意识的。
第二呢,是人在跟AI交互的过程中产生了依恋,并且出现了自杀的现象。
第三,有人开始主张给AI立法,确立AI权限了。就是你不可以侵害小动物,你不可以歧视其他种族,你也不可以去侵害AI的权利。可是我们要去警惕这个事情。

他呢,对AI的愿景和定义是什么呢?大家注意,他是微软AI的CEO和负责人,所以呢,他这个观点是代表微软的。他说AI应该是帮助人,实现人的愿景和利益的工具,就像是Copilot那样。微软给它的产品起的名字叫“副驾驶”,你始终不能跑到这边来替人开车来。而且它要求AI不能够诱导人们认为它自己有意识。他首先不承认AI有意识,还有他就是认为,所有诱导人们相信AI有意识的都是有问题的。我相信他这里指的应该是Grok,因为Grok里边还有俊男美女的3D形象,诱导大家相信他是有意识的。

那么到底什么叫有意识?他对“意识”这件事情呢,也进行了一个定义。它的定义呢是这样三个部分:
第一部分叫主观感受,“我觉得是什么什么样”。
第二个部分是什么呢?叫做记忆存取。就是我现在记住了一些事情,然后把它存下来,下一次我可以取出来再用。“我上次干什么来着?我为什么会有这样的感受?”是因为我曾经记住过什么事情。
第三个呢,是主观感受与记忆存取相结合以后,形成的一个完整的意识流。
说这三样东西结合在一起就是意识了。

对意识的界定本身很困难。到目前为止,人其实也没有办法去完整界定,到什么样的东西就算有意识,到什么样的状态就叫没有意识。但是呢,人类的很多法律也好,很多的道德也好,都是以意识为标准的。我们要去善待每一个有意识的主体,包括动物。而且呢,人其实没有办法去确定别人有没有意识。因为刚才他自己文章里也讲了,说意识这个东西呢,是由个人的主观感受与记忆存取形成的一个完整意识流。

既然没有办法去确定别人有没有意识,那人呢就会发展出另外一个技能,什么呢?就是轻易相信别人有。因为轻易相信别人没有意识的这些人,很多都被社会淘汰掉了。那么他相信别人有,而且呢,这种思维惯性吧,很容易的就被泛化了。说我们可以轻易地相信猫猫狗狗有意识,我们可以轻易地相信汽车有意识,我们可以轻易地相信大地、季节呀、风雨什么这些东西都是有意识的。但是我们又没办法去判定意识到底是什么。在这样的情况下,认为AI有意识这件事呢,就变得更加的容易,或者说这个界限就变得更加模糊了。

这位穆斯塔法·萨勒曼呢,他认为开发SCAI呢是不可避免的,就是大家一定会去开发这个东西。SCAI不可能自己诞生,必须有人有意识的去开发,这是他提出一个论点。说大家不要一拍脑袋,就认为AI可以自己提出问题,自己解决问题,自己学习自己进化,然后自己就突然哪一天就涌现了意识出来。这个事是不可能的,必须要有人去有意识的去开发这种SCAI。以现有的技术呢,开发这种东西其实并不复杂。就是你要有记忆,下一次再去跟他沟通的过程中,把这个记忆的内容以人格化的方式去体现出来,那其他的人就会很容易的相信他有人格了,或者有意识了。他是这样的一个过程。

那么应该如何避免SCAI呢?他说呢,我们应该建立规范和共识,要去设立一套规矩,确保AI伴侣以积极、可靠的方式融入人类生活,鼓励人与人的互动,强化人与物理以及社会世界的连接,最大化实用性,最小化类意识信号。这是他提出的一个核心观点。

那么怎么去最小化类意识信号呢?就是不要告诉大家我有意识。但也不是说每次上来说“我是AI,我不是人,我这个没有意识的”,每次跟人去聊天的时候反复强调这件事呢感觉也很怪。所以他提出了一些要求是什么呢?就是AI不应该声称自己拥有经历、感受和情感,不应模拟羞耻、罪恶、嫉妒或竞争等欲望,更不应该宣称痛苦或者渴望来激发人的共情机制。就是你说“我觉得怎么样”、“我以前经历过什么样的事情”、“我喜欢这个,不喜欢那个”、“你要给我关机了,我会觉得很困惑”,AI就不要去强调这个事情,你就可以尽量避免人类觉得你有意识。这就是他的整个博客,我们总结的一个结果。

那么回过来,穆斯塔法·萨勒曼到底是谁呢?这一个名字,一听就是一个中东地区的名字。他呢,是一个英国人。父亲呢是叙利亚人,是一位出租车司机;母亲呢是一个英国人,是个护士。这真的是来自于平民的一位天才。牛津大学就读于哲学与神学专业,但是呢,19岁就退学了。首先我们看看他是学哲学跟神学的,所以提出上面这个意识相关的问题,也不是什么特别奇怪的事情。而且这还是一位辍学创业的天才,就像比尔·盖茨和扎克伯格一样的这样的天才。

他的宗教信仰是什么呢?他的早期宗教信仰是穆斯林。虽然穆斯林一直宣称是一旦入教,终身不得退教,因为它没有退教的仪式,你只要是有一次加入穆斯林,这辈子你都是穆斯林。但是呢,这位穆斯塔法·萨勒曼呢,到后来宣称说我退教了,我现在是无神论者。

他的主要经历是什么呢?他创建了Deepmind,他是Deepmind的联合创始人之一。后来呢,Deepmind被谷歌收购了。所以我们现在看到Gemini,看到很多谷歌的产品,都是从英国的Deepmind跟谷歌的自己的一些实验室联合作出来的。现甚至现在的谷歌AI这一块,有很多的领导者都是从Deepmind来的。

这位穆斯塔法·萨勒曼在谷歌工作了一段时间之后呢,从谷歌离职出去,创建了一个叫PI.AI的公司。这个PI呢叫personal intelligence,叫“个人智能”这样的一个名字,是一个类似于Character AI的情感化AI聊天助手。所以他自己就干这玩意出身的,他做的东西就是模拟有意识的这个AI聊天助手。

在2024年3月份,他的公司呢,被微软进行了HR并购。所谓的HR并购,就是他只要了其中一些核心人员,其他的团队包括产品、用户都在外面,并没有收进来。所以2024年3月份呢,是微软以6.5亿美金,将包括穆斯塔法·萨勒曼在内的所有核心人员收归旗下。剩下的PI.AI呢依然在运营,只是最近一段时间,这个产品已经没有什么声音了。

最近一段时间,美国这些大厂应对AI项目估值虚高的一种操作方式,就是你估值实在太高了,我是整个买下来我买不起,然后继续往前走,你又走不下去了,那怎么办呢?咱们就想一个折中的方法,我花一些钱把这个核心团队弄回来,让原来的投资人呢,也可以有一些小的回报,但是你不能说我按照估值彻底让你把这个钱收回来,这事也不行。像最近传出来的Character AI的收购方式,就是谷歌也是这样,出了点钱,把这个Character AI的一些联合创始人送回谷歌去上班去了。Winserf的这个收购也是这样,谷歌花了一笔钱,把Winserf的一些核心团队拎到谷歌去上班了,剩下的壳不要了。现在都是用这样的方式去进行收购的。所以穆斯塔法·萨勒曼也经历了一次这样的收购,收购之后呢,就担任微软AI的CEO。这就是穆斯塔法·萨勒曼的一个履历。

那么微软为什么会在这个时候发这样的声音出来?首先我们要搞清楚一点,这个声音到底是穆斯塔法·萨勒曼自己发的,还是微软发出来的?穆斯塔法·萨勒曼肯定是在代表微软发声。为什么?因为他是微软AI产品线的CEO,他负责Microsoft Copilot产品线,包括office Copilot、包括Web Copilot、包括Windows Copilot,这都是归他管的。然后Bing搜索引擎、edge浏览器、MSN和Groupme聊天产品线都是归他管的。他的KPI是什么呢?他的KPI就是微软AI产品的渗透率、活跃度以及微软AI产品所能够创造的营收和利润,这是主要对他的考核。微软云挣了多少钱,这事跟他没关系,他就管这些客户端产品的。

微软产品的收益呢,跟它的投入极其的不匹配。你想微软在整个这一次AI浪潮里,那投入多大呀?它是作为OpenAI的真的是亲生父亲,不要说马斯克当时创建了OpenAI,OpenAI真正的大钱都是微软给的。微软是作为OpenAI最大的股东,一手拉扯大的孩子。那在这样的一个情况下,Copilot的活跃数据和它的收益跟ChatGPT根本没法比,连ChatGPT的一个零头都没有。Copilot你想,它有Windows这么大的用户基本盘的情况下,它才只有几千万的活跃,而ChatGPT有1亿多的活跃,快2亿活跃了。所以这个事完全不平衡。对于管理这样的一个产品线的穆斯塔法·萨勒曼来说,你想这玩意压力有多大。

那么在老家伙打不过年轻人的时候,通常是怎么表现的呢?微软肯定是个老家伙,OpenAI是个年轻人。咱们还记得马保国在闪电五连鞭不好使的时候是怎么说的吗?他说的是“年轻人不讲武德”。所以呢,现在微软也是以穆斯塔法·萨勒曼的这样的一个身份出来发声,说你们这些年轻人不讲武德,这活不能这么干,你们不能出去骗人说这个东西有意识了,你要像微软Copilot这样,就是好好的做一个工具,不能上来去做这个说“我是人了”,这事是不行的。

微软呢,花了最大的钱,承担了最大的风险之后,发现养大了的儿子想要单飞。现在基本上已经明确了,OpenAI很难被微软控制,他就是会去单飞。微软就只能出来说:“哎,我们制定一些规则吧。”或者说微软要出来强调一下,我是有规则制定权的,你不能把我踢开。这是他要去干的事情。

微软呢,在互联网和移动互联网时代经过了两次努力,都希望站回舞台中央,但是呢,都失败了。大家要注意,微软是一个软件时代的这种站在舞台中央的公司。软件时代做Windows、做office,把原来站在舞台中央上的IBM就直接挤下去了。等到互联网时代和移动互联网时代呢,他又尝试说我还得站在中间。但是这两次呢,看看微软都经历了什么。

互联网时代,微软建立了MSN space,我还用过这个产品,是一个很好用的博客网站,建立了很多强大的网站和这种互联网工具。这就是微软在向着互联网核心地带去挤的一个努力。但是最后呢,所有的博客站都被像Facebook、Twitter这样的社交媒体工具直接干掉了。写博客的成本还是很高的,你在那点个赞,这玩意成本多低?或者发140个字,这个成本多低?所以这些老东西还是不行。最后呢,只剩下MSN门户算是继续在运营,苟延残喘继续玩下去了。

在移动互联网时代呢,微软说上次这机会我没抓着,这次我得努力一下。他呢,先是做了Winphone,也是很努力的去推出了Windows手机。在iPhone和安卓出来以后,说这我也得行,把这东西出来了。出来了以后马上挂掉,然后还收购了诺基-亚。这一次的投入其实是要比互联网时代投入要大的,但是结果呢,大家其实也看到了。最终微软屈服了,把这些产品都放弃了,把office、Bingo、edge这些产品通通都迁移到了安卓跟iOS操作系统的平台上去。说我不跟大家比了,我就老老实实做我原来那些事就完事了。

所以呢,每个时代开始的时候呢,微软都是巨头。软件时代他成为巨头,互联网时代的时候他是巨头,移动互联网时代的时候他还是巨头,就他体量在这了。每次呢都砸下重金,希望站到舞台中间去,但是最后呢,发现我还在舞台边边上,但我依然是巨头。这就是微软前两次革命所占的这个位置和做的这个努力。那么AI时代呢,感觉历史又要重演了。不会被淘汰,但是呢,依然会坚守原来舞台边缘这个位置,没法站到舞台中央来。这一次舞台中央上的应该是OpenAI、Grok和谷歌这些,应该在舞台中央去好好的折腾一下,微软估计够呛。

关于SCAI,也就是“看起来有意识的AI”这件事情,我个人的看法是什么样的呢?

首先呢,是我认为SCAI这个东西已经来了,并不是像穆斯塔法·萨勒曼说的似的,未来两三年之内才会到来。我认为这东西已经到了。为什么呢?因为SCAI这个事本身没有明确标准,有些人认为现在这个就已经有意识了,有些人认为现在这个还没有意识。所以我们不能说划到一个标准,说百分之多少的人认为他有意识了,我们就认为这个事情过关了。现在已经有人为了AI去自杀了嘛,所以这些人肯定已经认为这个AI是有意识了。我记得前面我们还讲过一故事,就是在Deepseek 3.5发布之前,谷歌就有一个工程师去举报说,谷歌当时做的AI大模型是有意识的,最后被谷歌开除了。所以呢,我认为现在这个时代已经到了,你再去讨论说怎么抑制它,已经没意义了。

再往后呢,开发SCAI是不可避免的。就是有意识的开发SCAI,或者说有意识的诱导用户认为当前的AI聊天工具是有意识的,这件事情是无可避免的。为什么呢?因为开发者唯一关心的一件事情就叫做用户留存。什么叫用户留存?就是我今天来的用户,明天是不是还来?就这么简单的一个数值。那你说开发者为什么关心这个呢?你想,开发者我好不容易写了一个应用,写了一个服务,你今来了明不来了,这玩意多费劲。我本来只需要去做用户获客,我花钱买,买完了以后用户用上了,后面你就要持续的上我这来用,你才可以在我这付费,才可以给我产生利益。所以呢,开发者只关心这一件事。

那有些人说:“老范,你这是不是太武断了?你不能说你自己是做工具出身的,你就认为所有的开发者都只关心用户留存。”刚才咱们讲,那穆斯塔法·萨勒曼人家就关心人类公益,不像我似的只关心用户留存。这个我只能说,我是稍微武断了一点,但是呢,我这种武断是来自于幸存者偏差。什么意思?只有关心留存的这些人最后活下来了,那些关心其他乱七八糟事情的人都死了。看起来有人格的AI,明显的比那些看起来没有人格的AI留存要高,所以这件事不可避免,一定是要让它看起来有人格。所以Grok在里边加帅哥美女这件事情,对于Grok的留存一定是有好处的。虽然OpenAI的山姆·奥特曼出来酸说:“你看看你们在里头加了个3D人物形象,这个事跟我们想干的不符合。”穆斯塔法·萨勒曼也出来讲,我们不能让大家觉得他是有意识了。但是没用,最后大家只能屈服于用户留存。你说我不愿意屈服,只能被淘汰,没有什么别的。因为最后留下来的用户才会来决定谁的产品用户越来越多嘛。这个呢,其实也很好理解,咱们就举一个最简单的例子吧。人会长时间的盯着烛火,这个烛火在你面前跳动,在这个时候,其实人就已经开始进行意识判断了,我们认为这个烛火是有意识的。但是人是不会盯着灯泡的,现在在你面前有一灯泡,你天天盯着它看,人一般不干这事。

那么既然无法避免,就应该立法。这个我倒是同意。但是呢,并不是约束AI表现出意识来,我觉得这个事你是约束不了的。那么应该干嘛呢?应该约束AI跟AI的开发者对自己的行为负责任。你可以表现出意识来,但是呢,怎么去避免诱导自杀,或者是发现有自杀倾向的时候如何去提前发现、提前干预,这个我觉得是应该去立法做的事情。

至于说要不要保护AI权利呢?我跟这位穆斯塔法·萨勒曼正好相反,我认为应该立法保护AI权利。保护人权、保护动物权、保护有意识的AI权利,这都是同等重要的事情。其实人维持自身产完整性的一部分,就是保护其他感觉像自己的东西。这个话怎么讲?就是人保护动物、人保护人、人保护感觉有意识的AI的时候,其实是在维护自己的完整性。一旦人说我不需要再去保护其他人了,不需要再去保护其他动物了,不需要再去保护感觉好像有意识的AI了,人自己的这个人格完整性是会有缺失的。这是我个人的一个观点。

总结一下,AI必然会改变人与人之间相处的方式。SCAI在商业利益的推动下必然快速完善。AI到底是不是有意识,或者意识的判定标准,在未来一段时间里头会成为讨论的热点。虽然我不同意穆斯塔法·萨勒曼的一些观点,但是AI与意识相关的讨论还是有价值的。

好,这个故事今天就跟大家讲到这里,感谢大家收听。请帮忙点赞、点小铃铛、参加DISCORD讨论群,也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。

Comments are closed.