11 月 28
Luke FanAIGC AGI, AI创业公司, AI发展方向, AI安全, AI小镇做题家, AI情感判断, AI未来, AI模型, AI泡沫, AI科研, Daniel Gross, Ilya Sutskever, NVIDIA, OpenAI, OpenAI创始人, Safe Superintelligence, Sam Altman, Scaling law, Superintelligence, Transformer瓶颈, 价值函数, 大语言模型
伊利尔·苏斯克维的专访:他到底说了些什么?
大家好,欢迎收听老范讲故事的YouTube频道。
伊列尔·苏斯克维,很多人说:“这哥们是谁?”就是和马斯克、山姆·奥特曼一起创建OpenAI那哥们。在2023年11月份,对山姆·奥特曼进行逼宫以后,休假了很长时间,然后从OpenAI离职的。这一位算是OpenAI的创始人吧,他离职了以后呢,自己闷头去做研究,好长时间没有他的声音了,现在突然出来接受了一次专访。
引言:AI界的科学家与当下的迷茫
首先要注意,这哥们不是一个工程师,他是一个科学家。工程师跟科学家之间还是有很大差异的。使用确定的技术、加大投入、获得可预期的结果,这是工程师干的活;研究不确定的方向,这是科学家干的事情。所以,他是一位科学家。
现在很多人都在讨论AI是不是有泡沫。现在距离走通“最后一步”还有一点点小的差距。到底什么叫“最后一步”?就是AI真正的落地,真正的开始改变很多东西,开始挣钱。这一步现在还是有一点点差距的。但是呢,很多人也在否认AI泡沫的存在。AI虽然没有走通最后一步,但是AI真的带来很多失业。“钱我没挣着,但是我真的把人的工作干掉了。”现在是大家都比较迷茫的一个时间点。
原来那些应该默默无闻做研究的科学家,就携带了巨大的光环跑出来说话了。本来这些科学家说的话呢,应该是在很小的圈子里边流传,但是现在大家看看李飞飞、杨乐坤,包括今天咱们讲的伊利尔说的这些话,也成为了大众讨论的话题。
核心观点一:科学研究与工程研发的转化
“科研现在需要相互转化了”,这就是这一次伊利尔访谈的一个核心观点。你说,科研科研不是一回事吗?不是,科学跟研究是两回事,它是分为“科学研究”和“工程研发”,它是两个不同的概念。
科学研究呢,是在发现方向。发现了方向以后,就可以堆钱、堆算力、堆数据,在各种行业里边进行测试,这个呢都叫工程研发。就像前面他们研究了半天,到底哪个算法是可以把这个大模型做出来的,最后发现Transformer算法是可以搞定的,发现方向了。到发现Transformer方法有效之前,都是在做科学研究。在Transformer出来以后,大家说:“咱们堆钱吧!”玩这个scaling law,就是直接往里头去堆算力、堆数据、堆这些东西了,这就开始玩工程研发了。这个都是确定的东西,我们只管往里堆钱就完了。
工程研发呢,有一个不可避免的问题,就是你万一站到了一个小山头上,朝任何一个方向走都是下坡。工程研发的时候,他也是会寻找更高的一个山头往上爬,但是你爬到一个最高的山头的时候,你就没法往前走了,因为你不知道应该往哪个方向走了。如果有一个离你很近的山头,你还可以去尝试的跳一跳;如果下一个山峰离你非常遥远的话,这个工程研发是没有办法去跨越鸿沟的。那么在这个时候就应该重新走回来,做科学研究了,重新去尝试那些现在不确定的方向。这就是这一次伊利尔访谈的一个核心观点。
所有的科学家最大的能力是不是科学?其实不是这样。所有的科学家,特别是成功的科学家,他们最大的能力是筹措经费和资金。特别是现在这个时间点,任何一项科学研究都是需要海量资金去堆砌的。现在已经不能说科学家坐在家里头,闭门造车多少年,最后研究出一个神奇的东西出来,现在已经过了那个时间点了。
More
6 月 25
Luke FanAIGC AI安全, AI拼凑内容, AI生成内容, AI生成内容监管, AI生成垃圾内容, AI越狱, AI造假, Daniel Goose, Daniel Levy, H100 GPU, Safe Superintelligence, SEO优化, SEO骗流量, 上市, 中立性, 临时技术措施, 二维码溯源, 以色列裔加拿大人, 伊利尔, 优先使用, 信息孤岛, 信息溯源, 信息真实性, 内容甄别, 内容过滤, 可信媒体, 可控性, 商业压力, 多模态识别, 大企业赋能, 大模型, 大模型安全问题, 大模型训练, 安全公司, 安全协议, 安全定义, 安全实验室, 安全检测, 安全检测模型, 安全防护, 安全防护功能, 实验室, 工程突破, 工程能力, 平台处罚, 幻觉生成, 开源大模型, 开源模型检测, 执行者, 承诺, 技术问题, 拉玛2数据, 拉玛3训练, 攻击防护, 政府赋能, 数据处理, 数据生成, 数据训练, 数据质量, 数据预处理, 未来环境, 标准制定者, 核不扩散, 核不扩散协议, 核安全, 核武器, 核武器使用, 模型尺寸, 模型领域, 流量变现, 焦虑营销, 环境安全, 科学突破, 算力资源, 组织架构, 股民服务, 视频验证, 资本压制, 超级智能, 输入检测, 输出检测, 量变质变, 非盈利组织, 骗流量, 骗补贴
伊利尔在创业,他的公司叫做Safe Superintelligence(安全超级智能)。这个公司的主要业务是什么呢?目前,公司由三个人组成,分别是伊利尔、Daniel Goose和Daniel Levy。伊利尔是一位以色列裔加拿大人,他精通俄语、希伯来语和英语。Daniel Goose是一位以色列企业家和投资人,而Daniel Levy是伊利尔的旧部。
在人才和算力方面,Safe Superintelligence也非常强大。Daniel Gross和Knight Fragman联合创立了算力云,他们拥有3000块H100。有趣的是,他们还可以使用五吨重的H100,因为每块H100的重量超过一公斤,所以3000块H100大约有五吨重。另外,文章中还提到了一个有趣的名字,叫做Knight Fragman,他是之前的Get Have公司的CEO。去年11月,董事会将山姆奥特曼解雇后,他接任了CEO一职。
说我们要请一个临时CEO来,就是这个叫Matt Fredman。他请来了以后说:“啊,我诚惶诚恐啊,你们想怎么干啊,咱们接着干。”等山姆奥特曼回归了以后,他就走了。他是跟Daniel Grusse联合创立了算力允啊,现在Daniel Grusse是投资和参与了伊利尔新的公司SSI,大概是这样的一个关系。那你说,现在已经有算例了啊,有人才了,那数据哪来呢?现在的数据其实比以前要好获得的多。为什么呢?因为现在可以直接让大模型生成数据,这样的话质量更高,可控性更强。像拉玛3的训练,实际上就是用大量的拉玛2来直接进行数据处理,数据预处理以及数据生成啊。那么,他就可以训练出这么厉害的拉玛3来。现在伊利尔估计也会走这条路,人有了算了,也有了啊,数据呢也有了。那么到底什么是安全啊?说他跟山姆奥特曼吵架的原因是因为他觉得山姆奥特曼做的东西不安全,而且不安全是非常危险的,会对人类造成损害。说不,我要出去,我要做一个安全的,而且叫安全超级智能,对吧?怎么叫安全呢?实际上,现在的安全需要重新去定义了。我们所说的安全啊,是像核安全那样的安全,而不是信任核安全那样的安全。这个是伊利尔讲的原话。那我们来想想,什么样的东西是像核安全一样管理?核安全到底是怎么管理的?第一个,我们来对所有的数据进行记录。
一共有多少颗核弹都得记上,哪颗核弹在什么地方,全世界的人都得知道。哎,不能说哪多出一颗核弹来,这是不允许的,至少大的是不允许的。然后呢,还要有这种叫核不扩散的协议,而且还要有各种承诺,说哎,我们啊承诺不优先使用核武器,而且知道核武器这个东西一旦使用了以后,对整个的人类,对整个未来的环境和很长一个时间都是有巨大伤害的。这个是核安全,而这种信任核安全呢就是说,我相信你不会干坏事啊,至于你以后万一干了次坏事呢,我还可以再原谅你几次。这个是信任和安全。所以伊利尔呢是准备把AI安全作为核安全的方式来去管理的。那大家想一想,他会怎么来管这个事情,如何做到安全呢?伊利尔讲了,说我们只有一个目标和产品,就是做这安全超级AI,不会去做APP也不会做什么这些东西啊,而且呢没有时间和财务上的压力。现在呢他讲把OpenAI搞成这样,为什么呢?啊是因为有财务压力,你需要烧更多的钱,你必须要不停的再去融资,像我们以前也讲,你只要开始拿投资人的钱了,开始融资了,就相当于是在脖子上套了一条枷锁,对吧,投资人会催着你往前跑的,他会有时间和财务上的压力。伊丽尔说我没有啊,我就耐心做这个产品,而且呢他是希望通过工程突破,而不是各种临时技术措施,来去保证安全啊。大家注意啊。
伊利尔本身既是一位科学家,也是一位工程大师。他致力于将安全和能力视为技术问题,并通过革命性的工程和科学突破来解决这些问题。他希望能够直接解决安全问题,而不是仅仅通过打补丁等临时性技术措施来解决。他的工程能力使他能够实现量变达到质变,从而成为一个工程大师的典范。他的大模型是一个工程学方面的案例,通过堆积更多的参数和数据,他能够获得不同的结果。伊利尔提出的规模法则,即”scaring low”,指出只要扩大模型,就会获得不同的效果。他的发明和创造力使他成为一个大力出奇迹的发明人。
More