GPT 5发布之后,Sam Altman的油管儿访谈:GPT-8将在2035年治愈癌症?GPT-5只是开胃菜!AGI路线图、未来社会与算力战争全揭秘。
8 月 15
AIGC AGI (通用人工智能), Cleo Abram, GPT-5, OpenAI, 凸显AI人格化趋势, 山姆·奥特曼 (Sam Altman), 应用, 怀念其“性格”, 数据, 科技评论, 算力, 算法, 老范讲故事, 采访解读 GPT 5发布之后,Sam Altman的油管儿访谈:GPT-8将在2035年治愈癌症?GPT-5只是开胃菜!AGI路线图、未来社会与算力战争全揭秘。已关闭评论
在GPT-5发布之后,山姆·奥特曼在采访中都说了点什么呢?
大家好,欢迎收听“老范讲故事”的YouTube频道。
山姆·奥特曼这个采访呢,是8月8号做的,应该是在8月9号咱们这边能看到的。那为什么隔了这么久才去说这个事呢?这几天玩GPT-5玩得还是蛮开心的,所以呢就耽误了。今天跟大家讲一讲,山姆·奥特曼接受YouTube大V采访的时候,都说了点什么。
这个YouTube大V呢,叫Cleo Amber,这真的是大V,642万订阅。像我这个刚刚突破7万订阅的人,好好膜拜一下。这位大V呢,是专注于科技与科学领域的乐观解读。一定要注意,有悲观解读的,就是上来“世界要毁灭了”什么的,这位是专门讲乐观解读的。
整个的访谈呢,是一个小时零5分钟,6天的播放量260万次,远超过这位大V平时的视频播放量。他平时视频大概有210万次播放,其实也是非常高的了,因为他640万的订阅,每一次的视频如果有30%,也就是200多万的播放的话,那是非常非常高的。
以上数据由GPT-5搜集。我就直接问说:“山姆·奥特曼接受谁的采访了呀?这个采访是哪天的呀?播放数据是什么呀?这个大V是什么领域的呀?他有多少关注?这一次播放的数据,跟平时播放数据比起来,有什么样的变化呀?”上面就是GPT-5给我的一个结果,所以呢GPT-5确实还是很强的。
首先呢,讲到的是GPT-4o让人怀念。其实我也挺奇怪的,为什么很多人去怀念GPT-4o?我自己其实GPT-4o用得非常非常少,在GPT-5发布之前,我在ChatGPT网页上使用的最主力模型其实是GPT-3,就是推理模型。但是很多人怀念GPT-4o,GPT-4o被回收了以后,一堆人要求说:“不行,你必须把它弄回来!”还有很多的人在社交媒体上去请愿,导致山姆·奥特曼第一时间把GPT-4o给恢复了。当然,只有付费用户才可以使用GPT-4o,你不是付费用户,您就使GPT-5就完事了。
原因呢也很简单,山姆·奥特曼讲的是说,大家还是把GPT-4o人格化了。就是你习惯了跟这个人去聊天,相当于是你原来雇佣了本科毕业的一个大学生,你跟他聊了两年多,已经都完完全全适应了,也甭管你喜不喜欢吧,这就是你身边已经陪伴了你两年多的一个人了。现在公司里把他开掉了,换了一个博士回来,而且这个博士呢,说话还比较生硬,大家就觉得非常不适应,必须要把原来我习惯的GPT-4o给我弄回来。
机器人一旦人格化,或者我们叫AI助手吧,一旦人格化了以后的话,里边有很多的细节的东西,其实很难把握它到底差在什么地方,但你就是觉得说话别扭。而且呢,人也习惯性地把这种朝夕相处的东西进行人格化,甭管是你养的宠物、比如说汽车呀,或者家里有一些家具,你使用时间长了以后都会人格化,更别说是像ChatGPT 4o这样的一个可以不断地跟你聊天沟通的这种AI助手了。我到现在还记得特别清楚,小说《间客》里头,他有这么一个桥段:一个AI在做了很多事情以后,最后决定牺牲自己。牺牲自己之前呢,他说的最后一句话是:“请记住我叫菲利普。”他开始有名字了,而且要求你记住这个名字,这个过程就是一个人格化过程。Anthropic的CEO其实也说过,人们喜欢AI其实并不是喜欢AI的能力,而是喜欢他的性格。所以现在4o离开了以后,大家会觉得非常非常痛苦。
主持人呢也问了山姆·奥特曼,说到底有什么事是4o干不了,5才能干的事呢?山姆·奥特曼说,这个5真正能干的事呢,就是可以快速地解决复杂的科技问题,其他的其实并没有那么大的差异。
我原来参加过一次这种领导力培训,当时呢有一个案例:文字能够表达的信息,其实是语言的很少一部分,因为语气、语调会表达很多的信息。当然,作为一个文科生的老师给我们讲课的时候就告诉我们说,文字表达20%,语气语调表达80%。同样的话,你换一个阴阳怪气的方式去说,它就是表达另外一个完全不同的意思了。表情、动作、肢体语言再占80%,所以呢文字实际上面对面沟通过程中所占的信息量可能4%,就是文字在沟通中所表达的信息含量是很低的。但是呢,你想我们在跟GPT-4o沟通的时候,我们就是用文字在进行沟通嘛。即使是纯文字沟通的时候,文字与文字之间依然会隐藏很多小细节,这些细节构成了GPT-4o的性格,或者说构成了与我们一起聊天的这个GPT-4o的性格。因为GPT-4o是收集了非常多的我们个人的喜好,以及我们的长期记忆吧,把这些东西凑在一起了以后,它会慢慢地跟我们逐渐地习惯起来。这个东西突然换掉的话,大家会觉得非常不习惯的。
那你说我们现在有一个博士级助手,有什么不好的呢?他可以解决复杂的科学问题了。其实大家想想,到底有几个人需要去解决复杂的科技问题呢?没几个。我们自己大多都不是博士,也没有指挥博士干活的这种经验。你说今天给我分10个博士生,可以指挥他们干活了,你让我看着他们干嘛呢?大眼瞪小眼吗?其实这个对于大部分普通人来说是没有意义的。我呢,跟博士们是一起工作过的,他们呢其实通常会有一项技能,就是如何跟我这样的普通人进行沟通。当然有些博士呢,这个技能学得不是很好。GPT-5这种新的AI助手呢,如何跟普通人进行沟通的技能,就属于学得不是那么好的,所以大家觉得不是那么舒服。
再往后呢,山姆·奥特曼讲,到了2035年,AI呢就可以治愈癌症了。到那个时候大概是GPT-8。大家算算,咱们今年是2025年,到2035年呢要涨到GPT-8。GPT-4o涨到GPT-5呢,是用了两年多的时间,GPT-5要涨到GPT-8要用10年的时间,基本上呢是两三年一个版本,大概是按这样来算的。那说到GPT-8的时候呢,AI就治愈癌症了。怎么个治愈法呢?首先,我们要下命令,这块呢还跟现在是一样的,GPT是不能自己主动地产生意愿的,一旦它主动产生意愿的话,那人类就危险了。所以我们还是要下命令,说:“你要去治愈某种癌症。”
再往后呢,GPT呢会先读遍所有现在的研究和数据,给出一个治疗思路来,这件事情就已经超越人类了。人类到目前为止,没有哪个大聪明说,我可以把所有的现有的研究和数据都读一遍。这个GPT-8要做一些现在GPT-5做不了的事情,它要干嘛呢?找个实验员做9个实验,它要去设计实验,说:“你把这9个实验给我做一下。”然后把结果汇报给GPT-8。比如说等待细胞培养了两个月了,实验员呢也把这个结果汇报给GPT-8了。这个时候呢有一个意外的发现,好像有一个实验数据呢不是很精确,“你要再去给我做一个实验。”实验员再去给他做。等把所有的实验结果都收集回来以后,验证了他的一些猜想,这个时候呢去合成这些分子,在小白鼠身上做测试。如果测试有效,再去做人体实验;再有效的话,到美国的FDA去审查一下;没毛病的话,这个癌症就被治愈了。他大概是讲了这样的一个过程。
当然,这个呢还是现有的一个医疗管理体系,可能对于未来的AI来说并不一定那么适用。但是呢,它通过这个过程告诉了我们,未来的AI要向哪个方向发展:可以自己设计实验,命令人做完实验以后把数据收集给他——当然未必是人,有可能是机器人把数据回报给他——再根据结果再设计新的实验,再去收集数据。这是未来的方向。但是未来可能不会说真的像他说的这个方向去走,小白鼠实验、三期临床做完人体实验以后,去汇报FDA,再去这个给人去使用,可能未来就不会是这样了。因为你一旦是到FDA这边汇报完了以后,就一定是说这个药物给大多数人使用是有效的,但是未来有可能是什么呢?就是每个人会有一种自己的药。我得了一个什么病,你去给我治,他最后做出来那个药,就只有给这一个人吃有效,至于给其他人吃有没有效就不一定了。因为以前都是做双盲测试,最后靠统计来去确定哪个药好使、哪个药不好使嘛,未来的话可能就不是这样了。这个咱讲远了,这不是人家山姆·奥特曼说的,后边这段是我说的。
再往后呢,主持人就问他说:“2050年工业革命可能十倍爆炸,谁会受伤呢?”山姆·奥特曼说了一个特别有意思的话:“我们需要一种不同寻常的谦卑,去开放地考虑那些不可能进入公共讨论范围的新方案。”这个话其实大家仔细琢磨琢磨,是非常非常恐怖的。什么叫“不可能进入公共讨论范围的方案”呢?就是我们要打破现有的社会组成结构,甚至是说我们不能够再像现在这样去思考什么人权问题了。《未来简史》里边就讲过说,哎,以后会产生大量的无用阶级,只有少部分人是创造财富的,大量的人就成为无用阶级了。以前大家讲人权的原因是,我们要让每一个人去工厂里边打螺丝,到战场上去拉栓开枪,以后不需要这件事情了,只有少数人他们把这个事情搞定,剩下人就没用了,那为什么还要跟他们讲人权呢?当然,山姆·奥特曼是不是讲到这么远了,咱们不管他,他没准说我们给每个人发钱,把这些人养起来就完了,还是说想到了一些其他东西,我们就不知道了。但是他这句话已经告诉我们,未来的社会形态可能跟今天完全不一样。
然后呢,他提出了一些愿景。最好的方法,就是让AI算力尽可能地丰富而且廉价,多到用不完。如果做不到,未来或许人类真的会因为算力爆发战争。咱们现在还在跟美国人商量,说:“你这个芯片到底卖不卖给我呀?卖给我的时候是怎么收税还是怎么弄?”现在还在跟这事费劲呢。国内还有一帮人说AI芯片里头有后门,我估计是一些集装箱和一些服务器的框架里头会有一些定位系统,但是这种芯片我们都是可以把它拆下来的,把拆完了以后重新到新的板卡上去使用,到新的服务器里边去使用,这个都是没有意义的。咱们国内现在还在妖魔化英伟达芯片,所以到底会不会因为算力爆发战争呢?稍微有点紧张,小摩擦,不希望向这个方向发展。所以呢,山姆·奥特曼讲了说,关键的问题在于该怎样分配这些AGI的算力,或者说谁会有权利去分配这些算力。现在呢,他们肯定希望说美国应该有权利来分配AGI的算力,但是肯定有非常多的国家,包括中国在内,都不希望说以后算力的分配是归美国来管的。
然后主持人问了一个问题:“今天的应届毕业生是不是会很麻烦?”因为现在甭管是在美国也好,或者中国也好,毕业生毕了业以后找不到工作,是不是会出现这样的问题?山姆·奥特曼给出的回应呢:“今天的应届毕业生,应该是史上最幸运的一代。”说为什么呢?说AI呢可能会导致很多岗位的消失,但是呢,也很有可能会出现许多完全意想不到的新职业。这个是他提出的一个设想,说有人呢可能会直接执行探索太阳系的任务,乘坐宇宙飞船去做前所未有的工作,既高薪又有趣。说到那个时候的人,也许会为今天我们感到可怜,因为我们所从事的工作是那么的无聊,那么的落后。这点呢我倒是认同的,我们现在去回想说几十年前大家在做什么——在种地、修机器或者是打铁什么——就会觉得这个事好无聊、好累。现在你告诉年轻人说你去打铁,或者你去种地,年轻人可能都不爱去干。可能未来的年轻人开着宇宙飞船去太空中探测太阳系去了,他们会觉得我们这些程序员、我们这些码农干的事情好没意思,怎么这么无聊、这么累呢?他说这可能是未来的一个前景。
当然,我呢有一点点跟他不一样的看法是什么?就是并没有那么多人真的会去开着宇宙飞船探索太阳系,未来可能更多的人是在虚拟世界、游戏世界中创造文化价值和娱乐价值,通过这样的方式让GDP继续上升,让整个社会的财富继续上升。为什么?因为我们没有那么多的实体的工业或者实体的事情让他们去做。想要适应快速发展的这些科技,我们必须从虚拟的世界里头找到新的价值。这可能是我跟他不是那么一致的观点。
所以呢,山姆·奥特曼并不担心年轻人,他们往往是最能适应这种入门级工作完全消失的变化。反倒是那些62岁即将退休,又不想学习新技能的人更令人担心。所以大家还是好好学习新技能,甭管多大岁数了。
再往后呢,山姆·奥特曼对未来提出了一些指导,未来要怎么去发展,同时呢也没忘了再去怼了一把埃隆·马斯克,这个是永远不能忘的。他呢讲到说未来的发展是四样东西:算力、数据、算法和应用。说要在这四个方向向前发展。
首先是算力。算力呢,第一个基础是电力。美国人未来到底怎么把这电力问题解决,他也没有说出个所以然来,因为中国现在甭管是发电量还是用电量,都是美国的好几倍。对于他来说,未来到底怎么解决这个问题也需要去思考。因为呢,这种自由市场经济,要求资本家超前地去进行电力设施的部署,还是有一点点小难度的。再往后是卡,就是算力卡,它呢将进入下一个数量级的时代。现在大家玩的算力卡都是几十万块,马斯克10万块、20万块、40万块,Meta 50万块、60万块,可能到百万级的也就是微软,谷歌也许到了吧,现在我不太确定它到底是有多少,因为谷歌买的呢不是这个英伟达的卡,它是自己做的TPU,TensorFlow的处理器。未来的话就会进入到百万级和千万级的这个算力卡时代。现在马斯克也好,山姆·奥特曼也好,都在去做几百万张算力卡的算力中心的一些规划,这可能是即将到来的一个新的算力时代。
再往后呢是数据。数据这件事情呢,就是模型需要学习那些在任何现有数据集中都不存在的东西,他们得去发现新事物了。因为现有的数据其实已经被AI消耗干净了,我们已经把能够找到的数据都拿去训练AI了。用大模型去做再生数据的话,效果又不是特别好。那怎么拿到新的数据呢?只能是让AI自己学习,自己去做实验。就像山姆·奥特曼去讲的说AI怎么去治疗癌症,这个过程是一样的。它要提出假设,然后要去做实验,收集到新的数据,再拿这些数据去训练新的模型。这个是未来解决数据问题的方向。所以呢,山姆·奥特曼也讲了,提出假设、做实验、根据结果更新认知,大概率OpenAI也要沿着这个思路前进。这就是AI未来的发展方向。
算法,这个呢是山姆·奥特曼最自豪的部分,一直认为OpenAI在这一块遥遥领先,所以他也没有讲到说这个算法未来要怎么做,反正那个意思,我算法最好,你们跟着我走就完事了。
至于应用呢,就是真正下一步需要竞争的地方。说我们下边要去做的事情叫产品化,仅有科学突破还不够,必须把它交到人们手里,让它和社会共同进步,形成反馈回路。因为AI应用这个东西跟普通的应用还不一样,用的人多了,他才可以收集到更多的数据,才可以继续去训练更好的模型。你如果说用户量不够多的话,你就没有办法收集更多的数据,你在竞争过程中就会失败。当然,这个里头呢就必须要阴阳一下马斯克了,说我们不会在应用中加入性感的机器人头像的。Grok为了让更多的人使用,在iOS和安卓的APP里头加入了很性感的这个机器人头像,不光是有头像,还有很性感的声音,吸引很多人去使用。他说这个跟我们的思路是不相符的,我们不会干这个事儿。
最后呢,主持人问了一下,说:“AI会不会毁灭人类呢?”山姆·奥特曼这个解答呢,我是非常喜欢,在这分享给大家。说AI呢有99%的概率会极好,有1%的概率呢会是灾难。山姆·奥特曼要做的事情就是把99%往99.5%推,因为最后谁也没有办法完全去避免灾难的发生。作为OpenAI这样的公司的老板,我们尽量让发生灾难的几率下降就可以了,也不能说因噎废食,说因为有1%的可能性会产生灾难,我们就不要99%的结果了。他就是说,我们不断地让产生灾难的概率下降就可以了。
总结一下吧。下一个方向已经明确了:大模型可以自己提出假设、自己做实验、自己验证并自我学习的东西,就是AGI了。在GPT-5发布的时候,山姆·奥特曼也说了,说现在的GPT-5距离AGI只差一点了,加上自我学习以后就是AGI了。新的时代来了,新的机会也将快速涌现,现在的年轻人应该是最幸福的。AI会不会毁灭人类呢?先有了AI再说吧,没有AI之前,大家也不用在这瞎猜。
好,这就是咱们今天讲的这个故事。感谢大家收听,请帮忙点赞、点小铃铛、参加Discord讨论群,也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。
RSS