硕鼠的博客站

范路的博客主站,时而会发些东西。

大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲伊利尔彻底离开超级队,其团队解散,而OpenAI彻底失去束缚,可以一骑绝尘的事情。

从去年11月,山姆奥特曼突然被董事会开除,又经过了三四天戏剧般的反转,反转再反转之后,山姆奥特曼终于干掉了董事会,王者归来。从那以后,作为董事会里边唯一留任的伊利尔就再也没有出现在公众视野之中。很多人都在猜说这个人到底干嘛去了。

当时这个事情发生的时候,所有人就在猜测,说伊利尔是不是要离职,伊利尔什么时候离职啊。但是呢山姆奥特曼一直都是体现出政治家的这种手腕,一直在称呼伊利尔来为啊我最亲密的朋友。但是伊利尔呢一直没有发声。最近一次发生是在跟埃隆马斯克的诉讼过程中,由伊利尔的账号在里边说了一句话啊,但是也就仅此而已了。

伊利尔在这一段时间里他就彻底不见了,现在呢终于知道说啊他离职了啊,正式离职。而且呢根据已经从OpenAI里边离职的一些其他跟安全相关团队的啊,这些人去讲说伊雷尔从去年11月份到现在半年的时间就再也没有回到过OpenAI的办公室,一直是在进行远程工作,远程协调。对吧这个人等于就消失了,现在半年了啊终于离开了。

那么超级队其团队呢,在伊利尔离开办公室也就这半年期间,日子过得是非常非常痛苦的啊。为什么呢?因为整个团队最上面的老大是伊利尔,他会负责啊,跟公司内部的各个的管理层啊,以及各个部门进行沟通与协调。别人在干什么?别人做了哪些事情?哪个事情需要超级对齐团队去对齐对吧?这个事情原来都是伊利尔去做的,那么他如果不到办公室来,或者说他可能就完全属于一个半退休状态,那么所有的事情就都没有办法看。而大家知道, … …超级对齐,也就是 OpenAI 内部的所谓安全团队。他们要保证 OpenAI 所做的各种 charge GPT 的版本,它所输出的内容是符合人类价值观的。很宏大的一个目标。你要保证这件事情,这么多的这么多的团队和产品,这么多的算力,大力出奇迹吧。堆在一起,大家各自做各自的事情。那你怎么能够保证说,我最上面这个安全团队,能够把所有的问题都解决掉呢?这必须也要有足够的人力物力,特别是算力的投入。前面承诺说,给你们 20% 的算力,这甭管 OpenAI 自己有多少,20% 是你的。结果等他们要去要这个算力的时候,就经常得不到。想去跟其他的人去沟通,想去跟公司高层去要东西的时候,这个中间的桥梁,这个做沟通的人都不见了。那么他们的日子就很难过。

在这一段时间里头呢,超级对其团队的人员在不断的流失啊。一个一个的在离开。有些是被开除掉的。开除的原因呢是泄露公司机密,但是具体泄露了什么 OpenAI 也没说。然而出去了以后呢,他们也不说。原因也很简单,所有从 OpenAI 离职的这些人,他们都会签一份极其严苛的协议啊。这个协议的名字呢,我们就不跟大家详细讲了,大家基本上认为叫不许骂街协议。哈哈为什么叫这样的一个名字呢?他就规定你一旦离开 OpenAI 以后,不允许说跟 OpenAI 有关的事情,这算保密,也不允许诋毁 OpenAI,不许骂街。而如果违反了这个协议会怎么办呢?大家知道,像这些在 OpenAI 里面上班的人啊,他们的薪水有大量的都是 OpenAI 的期权与股票,这一部分都算是质押,一个人质一样的。我就搁这了。你如果出去了以后骂街,我就直接把这块给你没收了。这些人可能本来去的时候就都已经是大牛了,你想他们都是从谷歌挖人。谷歌呢,薪水多高啊?

那么,挖进来的时候,大家给到的都是期权。而且这几年来,open AI 的估值涨得飞快,所以他们每个人手里可能都握着几百万美金的相关期权。这个时候你如果敢骂街的话,我给你把这几万美金给你扣了。那么他们肯定还是要啊,比较谨慎和小心的啊。

但是也据说有一些很有勇气的人,在离开 open AI 的时候拒绝签这个东西,说我就不签了,钱我不要了,我就要出去说这个,等待他再说出一些更加劲爆的东西。

那么 open AI 的这个超级对齐团队的,他们到底是怎么干活的?对吧?这个是我们一直比较关心的问题。

对于不同的大模型公司来说有不同的安全策略。其实在安全上一直在内部进行争吵,特别是他们从一个非营利组织的方式开始啊。第一个开始吵架的是谁?还不是伊利尔。是前面做 aceropic 的那个兄妹两个,他说,我觉得你们 open i 做的东西不够安全啊,我们要自己出去单独做。

他们离职了以后,单独做了一家公司,也就是 aceropic 啊。那么他们做的 cloud,现在做的 cloud 3 的 opens 模型,已经在各方面啊或者在很多方面吧,超越了 PPT4。

他们使用的方式呢,叫宪法AI。什么叫宪法AI?就是说他有一些很强制性的简单规则,直接放到这个大模型里头去。正常情况下,我们是把所有的东西搁在一块训练,训练完了以后呢,具体哪一个权重高一些,哪一个权重低一些,你可以调。但是呢,并没有那么绝对。

但是像宪法 AI,就是说我给你一些很强制性、很绝对的基础的规则,你就拿去使用,然后呢我保证输出的所有的结果啊都是符合这些规则的。首先,安全是首要考量。所有有害的内容均不输出。

其次,尽量确保有效性。输出内容应具有价值。

这是anceropic采取的第二种方式,即介绍了open AI的超级对齐方法。超级对齐旨在使open AI的模型输出结果与人类价值观一致。具体而言,通过以小空大的方式,使用相对较小的安全模型(由GPT2训练)来监督较大的模型(如GPT4)的输出。这种安全模型会对GPT4的输出进行审核和讨论,以协调和确保结果的对齐。

另外,他们提出了“弱到强泛化”的概念,意在训练小模型后,对大模型进行泛化处理,使其能处理之前未见过的内容。通过一定的规则,小模型仍然能够对大模型输出的内容进行泛化处理。

最后,在其发表的论文中,他们讨论了如何从弱到强地处理这些泛化问题。这个过程是一个增长和沟通的过程,在协调PPT4输出内容的过程中起着重要作用。

现在,问题来了——问题出在哪里?\n大家知道,OpenAI最近推出的各种大模型,如Solar端到端视频直接生成的模型。就是你输入视频,输出视频,中间没有什么文字这些东西。然后PPT4O语音到语音的端到端模型。它开始玩这些东西了。这些东西上来以后,刚才我们讲的,你靠弱到强泛化,靠GPT2去监控GPT4,这样的玩法你是玩不转的呀。

但是在这个过程中呢,你想去继续往前走的方式是什么?很简单啊,就是你需要投入更多的人力、物力,以及算力。更重要的是算力,让这个小模型有更强的能力进行更广泛的这种训练。然后才可以说,去对OpenAI的一些新产品进行监督,保证它能够对齐。结果现在还做不了。

要申请算例的时候,人家不给我。我去问人家说你那个系统在做什么,这个事到底是什么原理,他也不告诉你。那你这个时候他就没法去工作了啊。所以,现在这些离开的超级对鞋团队的人啊,对于OpenAI来说,对于山姆奥特曼,都是相对来说比较失望的。

咱们刚才讲了anceropic,讲了OpenAI,后边还有两个。一个是拉玛3,这个是开元大模型里边的领军人物,梅塔出来的啊。他使用的安全方式是什么呢?他用了一种叫做“安全性和有效性的激励训练法”。他在进行数据训练的时候,在进行拉玛3训练的时候,他让拉玛3出各种各样的答案。当他出了这种不安全答案的时候说哎,这个事不对,给你一个负向反馈。出了安全的结果,出了有效的结果,你注意除了安全之外,还要有效啊,不能一本正经的在这说废话,这事是不行的啊。

出了这样的结果以后,就会对他进行正向反馈。这过程呢,其实很像养孩子哈。小孩长大的过程中,这事做得好,给颗糖吃;那事做得不好,打手板记住了没有。然后呢,拉玛3说我记住了,这是拉玛3处理的方式。就是他也是有安全机制的,然后谷歌呢,属于比较奇葩的啊,因为呢公司实在太大,内部部门非常多,所以他牵扯的也很乱。

所以谷歌的这个政治正确,是很多个部门一起下手,就把Gemini搞得,这就只能说一些废话了啊,或者说他很多的内容输出就受的限制非常非常大。甚至前面他们出画图功能的时候哈,隐瞒这2的时候各种正人正确,把所有的人都画成黑人,被人嘲笑。

最后只能功能撤回啊,这是谷歌现在的安全状态。刚才我们总结了全世界最靠前沿的四个大模型公司啊,他们各自的安全策略是什么,以及open AI的超级对齐团队遇到了什么样的问题。各种端到端的模型做出来以后,这个超级对齐是越来越难做。如果在这个时候没有一把手的支持,就是没有最上面管理层的支持,那么其他所有的啊,跟他们去要配合的这些团队要接受他们安全审核的这些团队,那你在这个时候就没法去跟他配合啊。

为什么其实很简单,伊利尔肯定是一个叛徒,至少在这6个月里,头大家也在站这个队。你既然说我们都去站山盟奥特曼的队,那么伊利尔手里边这个团队如果我们配合他好了啊,给他好脸色看了,那你这个屁股坐的歪不歪啊。对吧所以这个事他就完全没法整的一个事情。现在呢,超级对集团队就是彻底解散掉了啊,除了他已经走的这些人,剩下的这些人呢就说你们就打散了吧,进到各个团队里头去啊,你们跟每一个团队去商量说你们怎么对齐就完事了啊。

这后边是准备这么去干,那你说这样干行不行呢,肯定不行啊。对吧因为咱们就想open AI在干的活是什么,它实际上在训练一堆的模型,所有这些模型里头可能有些能够稍微对齐一点点,有些可能就对不起了,对吧。这玩意就跟我们在一个学校里边带了一堆孩子在这上课一样。那总有成材的,有不成材的,对吧?但是最后只要是产品发布了,成材的、不成材的,你都得给人用啊。万一哪一个出了问题,那么后面的安全事故、安全的问题一定会变得更多。这个没什么好说的。

咱们现在这么长时间里头,open AI大量的产品堆在那出不来,可能也是超级对齐团队在里边的啊,一定起了作用吧。啊,他说你们这些产品我们超级对齐团队不签字,你就不可以发。这个可能性都是存在的。

再往后超级对齐团队没了,那么就是每一个团队的老大。比如说这个人是负责GPT4O的,那么他就问说嘿,咱们开个会吧啊,我们从超级对齐团队分了两个人,我们自己对自己的这个超级对齐这件事进行确认,就完了,那我是不是大家签个字啊,举个手投个票,咱们这个事就算集体决议一下啊。我们GPT4O已经够安全了,可以发布了吧,他就会干这样的事情。

那这些人,等于就没有一个独立判断的权利了。我们可以期待的是,open AI会快速的发布大量的产品出来,已经没有上面卡脖子了吧。但是呢这些产品出来以后,翻车的概率也都不低哈,其实可能都会翻几次啊。这个是离开了欧鹏 AI的超级对决团队打散了以后的结果。

那我们来想一想,超级对齐这件事对我们到底有没有价值了?其实我一直觉得他们自己做这个事啊,呃价值是有问号的啊。为什么呢?就是人类价值观,什么叫人类价值观?谁说的清楚谁说了算,是中国人说了算,是美国人说了算,还是男的说了算,女的说了算,左派说的算还是右派说了算?每一个事情到底如何算是符合人类价值观,这个事本身是没标准的。那我们都是按照很左的方式去搞吗?正是正确多元化啊,像谷歌翻车那把似的,让他画一个二战欧洲战场,结果发现德国士兵好多是黑人,或者你给我画一个中国什么什么战争。发现所有的士兵里头,也是各色人种都有。这就算是符合人类的价值观了吗?对吧,这个本身是有问题的。所以现在很多人就认为,说所谓人类价值观,这件事本身并不是一个很明确的标准。

整个的社会是怎么办这个事情的呢?他是通过选举啊。有一堆民选官员。他们呢会在一个模糊的范围内,对各种的价值观的事情进行一定的判断,而且他们还不敢判断特别多。他们只敢在法律范围内去做,因为你到价值观这,其实有好多已经超过法律范围,已经到道德范围了。

你如果用道德标准,而不是法律标准,去要求Open AI的各种大模型的话,这个事他是有问题的。所以我并不认为说这个事情应该由一个公司来做的,而是应该比如说由民选政府,或者说由一个有合法性的政府机构来去处理。什么叫人类价值观的问题,像中国现在这种方式,其实我觉得是有借鉴意义的啊。

刚才我们讲了,美国的各大公司是怎么看这个事的。对吧,美国政府在这件事情上说:我还要想一想,对吧,我还没想明白,说我们坐在这讨论吧啊。美国政府呢,其实对于各种AI公司或者AI大模型的限制,相对来说是比较宽松的。哎,那么中国是怎么干这个事的?

中国很简单,咱们发牌照,按照社交媒体的方式来管理。这个叫什么?叫责任制,你这个大模型出了责任了,来暂停你自己去整改,整改完了以后,然后去检查,没什么毛病我再给你开,等你下次再出问题了,哈哈停停牌休息了,然后你再去干,去拔网线。

在这个过程中呢,中国的各大大模型公司就会相对来说比较谨慎,因为很多的错误是一票否决的,你出一次这公司就不见了。这一点上呢,咱们不说技术怎么样啊,也不说这个方法好不好,但是我觉得效果还可以啊。美国人可以去学习一下。

对于未来的展望,面对新兴的这种端到端的……大模型的挑战,到底应该如何去应对这个事情啊?这件事情呢,我觉得有可能会再出现一家新的公司,或者不一定是公司了。有可能再是一个非营利组织,比如说伊利尔牵头说:“我们再做一个非盈利组织,或者说再做一个在政府下面的什么样的组织。我们来去监管这件事情啊,通过税收或者通过一些什么样的方式去训练一些模型。最后你不通过我们这个模型的审核,或者不通过我们模型的监管,我就直接给你吊销牌照啊。”或者做这些这样的事情。这个可能性是存在的。

即使美国政府不像中国政府这样说直接把这些人收编进来成立一个政府部门,他也有可能成为一个民间机构啊。民比如说马斯克出钱,因为这个伊利尔原来也是啊,马斯克找进去的。那么现在比如马斯克出钱说:“我们再拉几个有钱人,咱们成立一个中间的这种民间机构,或者说是这种非营利组织啊,对现在正在流行的各种开源模型、闭源模型啊,咱们进行去监管。出现问题我们就直接写报告,发各种的信息出来。”这个事情的可能性也是存在的。

但是还有一种可能,就是伊利尔最后走向answer Rapik那条路啊,再成立一家新公司,像这种人成立公司后边肯定等着给钱的人都排队啊,排出二里地去。这事没什么毛病,成立新公司,在做新产品,做完新产品以后再进行一次竞争。这个事呢,可能性也是存在的啊。

但你说会不会被收编啊,比如说马斯克说来XAI给你虚位以待,这个可能性也有啊。谷歌千万别去啊,那已经是老大难公司了,进去了以后那扯皮还扯不过来呢。还有呢,就是比如像英伟达啊、梅塔啊微软啊都有可能,但是微软我觉得可能性小一点吧,包括亚马逊。其实都是有可能会去跟他们合作的,后面我觉得这个事情还有待啊继续的发展。

至于open AI。到底会不会给整个的社会带来很大的损害?我觉得这个事呢,是不可避免的。他就只管往前走,造成一定的伤害之后,他承担责任就好了。哎,没有哪个小孩是说我从小教好的啊,还是要一个跟头一个跟头跌过去。

Open AI现在呢,跌的跟头有点少,而上一个跌的跟头,也就是去年11月啊,把山姆奥特曼干掉。虽然我们都很开心看到山姆奥特曼回来,但是当时我就做了节目讲说,这种回归了以后,他的心态会发生一定的扭曲,而且他整个的监督机制或者内部的一些制衡机制就已经被破坏掉了,未来啊是蛮有隐患的。

今天看的就是这个隐患,已经啊彻底的不可调和,爆发掉了啊。但是现在呢,还只是一个小的隐患。等真的Open AI出现什么东西,他的产品给整个社会造成巨大损失的时候,那才是啊真正比较大的隐患爆发。但是这件事呢,不可避免,也不是说爆发一次 Open AI 就挂了,就是 Open AI 爆发了这样的问题,以后再重新爬起来才可以走的更远。

好啊,这就是今天我们要讲的。伊利尔离开超级对其团队解散,Open AI 一系绝尘的故事。今天这个故事讲到这里,感谢大家收听,请帮忙点赞点小铃铛,参加 Disco 讨论群,也欢迎有能力有兴趣的朋友加入我们的付费频道。

再见。

 

Both comments and pings are currently closed.

Comments are closed.

Close Bitnami banner
Bitnami