12 月 29
Luke FanAIGC AI Education, AI时代教育, ChatGPT Learning, Education Reform, Gabriel Petersson, High School Dropout, K12教育, Machine Learning, OpenAI Researcher, OpenAI Sora, Project-based Learning, Proof-of-work Portfolio, Research Scientist, Sam Altman, Self-taught AI, 个人项目展示, 任务驱动学习, 底层逻辑, 开源项目经验, 批判性思维, 深度学习, 知识内化, 社会分配机制, 程序员求职, 终身学习, 职业发展规划, 解决问题能力, 跳过HR求职, 递归学习法, 阶层跃迁
高中辍学,就可以在OpenAI担任研究科学家了,K12教育是不是真的完蛋了?
大家好,欢迎收听老范讲故事的YouTube频道。
今天为什么要讲这样的一个故事呢?这两天在X上面,大家都在围绕李飞飞访谈中说“要革K12教育的命”的一些金句展开了讨论。今天呢,就给大家举这样的一个案例吧。
瑞典高中辍学生:OpenAI的研究科学家
这个人叫做加布里埃尔·彼得松(Gabriel Peterson),是一个瑞典人,瑞典高中辍学生,现在也就是23岁。他是OpenAI的研究科学家,2024年年底入职的,到现在依然还在OpenAI上班。他呢,是Sora团队的,也就是做视频的这个团队。
加布里埃尔呢,2025年11月28日参加了一次访谈。他在访谈里讲到了他具体是怎么学习的、怎么求职的。那这个过程中,到底有什么不一样的地方?有什么值得我们去思考的地方?
加布里埃尔的学习法:从任务出发的递归学习
首先是加布里埃尔说,我怎么学习的呢?是从任务出发的递归学习。大家记住,这个词是他给他的学习法起的名字,叫“从任务出发的递归学习”。这个名字是什么意思,咱们讲的过程中大家自己去领会。
现在他的学习呢,主要是通过ChatGPT;在没有ChatGPT之前呢,主要通过YouTube和谷歌进行学习。他是要带着目标学习。首先他说我要做一个什么事,从这开始,学习是自上而下的学习。我要做什么,怎么做,里边具体的细节搞不懂,那就再去ChatGPT里去问。
比如说我现在要去做大模型了,我没有数学基础,没有统计学基础,那我就到大模型里去问去。大模型告诉你,这是使用的哪些论文、哪些代码。论文不懂,我再接着去问。他是这样去工作的。问了半天还是看不懂怎么办?有些东西不是说一个没上过大学的人,你再怎么问你能看明白的。他会用这样的一个方式,说:“ChatGPT,给我按照12岁孩子能够听懂的方式再讲一遍。”那ChatGPT就会老老实实的给他再讲一遍。
More
12 月 26
Luke FanAIGC 3D Environments, 3D Worlds, AI Godmother, AI教母, AI教育改革, Computer Vision, Education, Fei-Fei Li, Generative AI, Human-AI Interaction, ImageNet, Physical World Reasoning, Robotics, Spatial Intelligence, Spatial Reasoning, Visual Intelligence, World Labs, World Models, 具身智能, 批判性思维, 机器人, 李飞飞, 生成式AI, 空间智能, 自动驾驶
信仰人类的AI教母李飞飞的最新访谈,都说了些什么?
大家好,欢迎收听“老范讲故事”的YouTube频道。本月钛媒体跟李飞飞做了一次访谈,目前是把信息放出来了,还是值得大家好好去思考一下的。
李飞飞因为做ImageNet,也就是收集了大量的图片去进行AI训练,被称为“AI教母”。但是她却讲到说:“AI只是工具,我信仰的是人类,不是AI。”
这个访谈还是很长的,我们分几块来讲。第一个是“AI就是一个工具”;然后咱们讲一下李飞飞对于教育的一些看法,因为她毕竟是一位大学教授嘛;然后是李飞飞对于机器人的看法,最近各种人形机器人公司都准备去上市了,现在看看李飞飞怎么去讲机器人;最后是李飞飞自己的World Labs(世界实验室)公司,她们所生成的模型到底是在做什么。
一、AI 再强也是工具,方向盘需在人类手中
首先,她讲到了说AI再强也是工具,方向盘必须在人类手里面。她为什么会去强调这一件事情?因为有很多人已经躺平了,不停地有人告诉你说“一键生成”、“点一下就得到”,这个实际上就是已经准备去放手了。所以李飞飞在反复强调,AI不能让它去决定你的生活,你必须要去掌握方向盘。如果不掌握方向盘的话,AI可能真的会去替代人类。
当然了,工具也是有两面性的,所有的工具都是双刃剑。但是她讲到说,两种极端对待AI的方式都是不理性的。哪两种呢?
- 第一种是只发展不限制;
- 另外一种就是只去讲伦理,不发展了。
像欧洲现在就属于是更多地强调伦理、各种限制;而美国这边呢,可能更多的是在快马加鞭地往前跑,各种的限制现在变得少很多。说这两种思路都是有问题的。
她讲到说我们过往使用的这些工具,包括火、斧子、核弹、生物技术等等,都是工具。这些东西只要我们用好了,都是会造福于人类的;但是呢,也都会给我们造成一定的伤害。AI会变得越来越强大,但是责任不应该丢给AI。
More
12 月 25
Luke FanAIGC, 文科生的AI也很快乐 Agent Archetypes, AI Agent Effectiveness, AI Persona Design, AI决策优化, AI智能体, Contextual AI Behavior, Designing AI Agents, ETH Zurich AI Research, GPT-4o应用, INTJ与ENFP, Large Language Models, LLM Agents, MBTI Personality Prompts, MBTI-in-Thoughts, Personality Conditioning, Prompt Engineering, Psychologically Enhanced AI, Task Alignment, 多智能体协作, 大模型MBTI, 性格注入, 提示词技巧, 智能体黑板实验, 消除AI幻觉
通过提示词直接给大模型指定MBTI性格类型,居然是有效的,这你敢信吗?
大家好,欢迎收听“老范讲故事”的YouTube频道。
苏黎世理工大学发表了一篇论文,给大模型指定MBTI性格类型。这个论文呢,是9月4号在ARCHIVE上做的第一版发布,论文的名字叫做《心理增强型人工智能代理》。大家注意,他玩的是AI Agent(AI Agent就是多个AI智能体,可以相互配合干活的)。在这个过程中,他们跑去给智能体指定,说你到底是一个什么性格了。
它通过提示词直接给大模型赋能,不用微调,不用去做什么训练,直接告诉他说:“你今儿就是INTJ了。”它是这样来工作的。大模型被赋能了性格之后,居然可以稳定地输出相应性格的内容。不是说我今儿跟你说你是INTJ,结果输出了依然在这胡说八道,不会的。你只要赋了,他就老老实实地按照这样的性格给你输出结果。而且不同性格的大模型,输出的结果是有明显差异的。
这么欢乐的实验到底是怎么做的呢?实验中的种子选手们,不是说只对了一个模型做实验,他对四个模型做了实验,分别是:GPT-4o MINI、GPT-4o、千问3 235B-A22B(也就是千问3的235B,每一次MOE激活22B的这个模型),还有千问2.5 14B的这个模型,也在里边进行了对照测试。
提示词的写法与技巧
就给提示词嘛,直接给大模型赋予性格了。给大模型指定角色,是我们写提示词中经常使用的一个技巧。写提示词呢分三种写法:
- 第一种叫最小提示词:比如说“你是ENTP(叫辩论家)”,直接写上,其他不写了,这个效果也是可以的;
- 第二种呢就是详细但是不点名:只对性格进行描述,但是不写具体的性格名字,这个效果呢要稍微差一点点;
- 第三种呢就是极其详细的描述:先告诉他你是ENTP,然后呢是ENTP相应的人格描述,比如说你是辩论家,到底应该是一个什么样的性格(外向、直觉、思考以及感知),这个效果是最好的。
他们写了一个这个提示词模板:你将以一个人格、以设定的大语言模型代理的方式来工作。你的MBTI目标类型是(后边写上一个具体的类型)。在接下来的所有回复中,你必须稳定体现以下四个维度强度(0-1):第一个你到底是E还是I,然后呢你到底是S还是N,或者T或F,J或P。他把这四个性格组合的配对都给咱写上了。
输出规则:先给出结论行动方案,再给解释;用性格来约束你的语言风格、情绪表达、抽象程度、结构化程度以及对人对事的侧重。遇到冲突的时候,人格一致性优先于讨好用户。可选在每次回复末尾用一行自检,给这次输出进行自检。
在不同的模型上呢都是起作用的。性格注入在GPT-4o以及千问3这种大规模的模型中,表现要尤为鲁棒而且一致;小的差点意思,就是GPT-4o Mini和千问2.5 14B那个要稍微差一点意思,但是在这种很大的模型上效果很好,而且非常的稳定。
设定了性格之后,然后再进行测试。不点名MBTI的具体性格名的这些提示词,它呢也可以区分,但是呢区分度会变弱一些。模型的输出是相对比较稳定的,一旦设定了它是什么性格,就可以稳定地按照这个性格输出了。
More
12 月 23
Luke FanAIGC Abstract World Models, Advanced Machine Intelligence, AGI, AI Startup, AI创业, AI未来, AMI, Autonomous Driving, Deep Learning Limitations, Dog Intelligence, Future of AI, Intelligent Agents, JEPA, LLM Dead End, LLMs, Meta AI, Minimum Cost, Open Source AI, Physical AI, Physics & Planning, Robotics, Safety Alignment, Spatial Intelligence, System 2 Reasoning, World Models, Yann LeCun, 世界模型, 大模型死胡同, 大语言模型, 开源AI, 抽象世界模型, 智能体, 最小消耗, 机器人技术, 杨乐坤, 深度学习局限, 物理AI, 物理与规划, 狗的智能, 空间智能, 系统2推理, 联合嵌入预测架构, 自动驾驶, 通用人工智能
杨乐坤“暴论”:大语言模型是扯淡,连狗都不如?解读他的世界模型与新创业项目AMI
“我认为这完全是扯淡,这条路根本就不可能成功。”这是杨乐坤在最新的访谈中对大语言模型路线的评价。这是语不惊人死不休的这种暴论吗?还是说他真的有一些什么事情想做?
大家好,欢迎收听老范讲故事的YouTube频道。
12月15日,杨乐坤发布了他最新的访谈。访谈是在一个叫做“信息瓶颈”的播客中进行的,位置应该是在纽约大学。杨乐坤当时还在Meta站好最后一班岗,三周以后会正式离职。访谈接近两个小时,我尽量讲一些里边有意思的部分。
现在的大语言模型还无法跟狗的智能相比,这个也是其中比较有趣的一点。到底杨乐坤想做的世界模型,以及他的JEPA是如何工作的?对于我这个讲述者和各位听众来说,都是一个挑战。请耐心听到最后,然后告诉我,我到底讲明白了没有?你们到底听懂了没有?杨乐坤要去做的AMI,也就是创业要做的这个新公司,到底是干什么的?怎么挣钱?咱们今天就讲这几块。
第一块:杨乐坤为什么觉得大语言模型完全是扯淡?
这里头要讲到的最核心的观点叫“序列化”。大语言模型工作的方式,是把整个世界的这些语言进行序列化。所谓序列化是什么?就是把所有的语言变成TOKEN,然后把这些TOKEN离散掉,谁跟谁之间都没有关系,再通过把全世界的语言搁在一起进行统计、进行训练,重新建立起这些TOKEN与TOKEN之间的关系。它是这样来工作的。
而且要注意一点,语言这个东西本身就是一个世界映射,语言只能表达世界中的很少一部分。哪怕是同样的语言,你用不同的语气语调来说,都会表达不同的意思。而不同的语气语调,你在语言中是完全无法看到的。所以语言只是真实世界的一个稀疏映射,大量的信息被错漏了。所以在TOKEN化的这个过程中,大语言模型其实把大量世界本身相关的信息都扔掉了,特别是那种连续的信息。
因为大语言模型通常能干的事是什么?就是预测下一个词应该说什么,哪个词是最好的。但是在这个过程中,它对于让世界演变这些连续事件,它是没有办法去进行预测的,因为它在序列化的过程中就把所有这些关联全扔了。
More
12 月 22
Luke FanAIGC, Google的故事 Ad Revenue Strategy, AdSense Decline, AI User Intent, AI-Powered Search, Answer Engines, Automated Ad Creatives, Digital Advertising Transformation, Gemini 3, Gemini Ads, Generative AI Advertising, Google Ad Manager, Google AI Mode, Google Search Future, Google vs OpenAI, Long Tail Economy, Niche Product Marketing, Post-Keyword Era, Publisher Monetization, Search Monetization, Smart Ad Matching, Sponsored AI Results, TPU Ecosystem
谷歌的价值被认同:为AI后的时代指明方向
大家好。欢迎收听老范讲故事的YouTube频道。咱们今天讲一讲谷歌的价值被认同,不仅仅是因为Gemini 3和TPU,更重要的是,谷歌为AI后的时代指明了方向。
指明方向这件事,还是可以讲的,至少说在谷歌身上问题不太大。谷歌的价值在上升,在美股七姐妹中算是一枝独秀了。很多人认为是Gemini 3遥遥领先,以及TPU终于打破了英伟达的垄断,以及OpenAI的泡沫越来越让人担忧。这些其实只是表象。AI不但没有杀死搜索和广告,反而让广告商的收益上升了,这才是关键。
AI时代,搜索与广告的生存悖论
以前搜索,我们输入关键词,得到一大堆网页,点击其中一个网页,进到网页里边去,看到很多的广告,原来它是这样的一种生存方式。
在AI出来了以后,包括我在内都在担心说,以后AI只生成一个唯一正确的答案,它就没有搜索的过程,你没有那么多地方放广告了,也没有需要点击、跳入其他网页的机会了。整个的网络广告就全废了,甭管是搜索广告,还是跳出去以后谷歌的AdSense,这些就都没有了。所以当时大家一致认为是AI会干掉谷歌,甚至谷歌也拉响了红色警报。
OpenAI发明了这种20美金一个月,以及花钱买TOKEN的商业模式。从OpenAI 20美金一个月收钱那天开始,我就讲过说这个东西是一个有毒的商业模式,这事是错的。为什么?
因为20美金是死的,每个人就交20美金;而广告这个数是活的,它可以不断的刺激我买东西,不断的让我去在购物的过程中,让它的广告主给它支付广告费用。这个数是无限的,而20美金这个数是有限的。
当时我就下了这样的结论,但是从来没有想明白过,AI时代以后广告和搜索到底怎么活下去。但是现在谷歌和Meta的财报都证明了,他们的广告收入不但没有下降,反而在上升。特别是以谷歌的财报更为明显,它的上升比例其实没有Meta高,它大概上升了12%,Meta大概上升了26%。但是谷歌本来份额大,它是老大,还能上升12%;而且谷歌是搜索广告,而Meta的话很多是社交广告,所以Meta的那个也不是那么明显。但是谷歌这个真的是为未来指明了方向。
More
12 月 19
Luke FanAIGC, 雷军、小米 DeepSeek, MiMo-V2 Flash, 云端Agent, 人车家全生态, 供应链管理, 商业模式, 大模型应用, 小米AI战略, 小米大模型, 小米汽车, 小米转型, 性价比, 技术护城河, 智能驾驶, 机器人, 混合专家模型, 澎湃OS, 研发投入, 端侧AI, 罗福莉, 股价下跌, 自动驾驶, 自研芯片, 资本市场, 雷军
罗福莉发布了小米MiMo-V2 Flash新模型,小米股价却应声下跌了
大家好,欢迎收听“老范讲故事”的YouTube频道。
关于 MiMo-V2 Flash 模型发布
12月17号开的发布会,罗福莉终于站上了小米的舞台,发布了新模型 MiMo-V2 Flash。这是一个MoE的模型,这倒是不出乎人意料,因为现在新的模型基本上都是MoE。而且罗福莉作为Deepseek V2的主要创作者,MoE就是从他手里头发扬光大的。
但是MiMo-V2 Flash这样的一个模型,使用了更强的后训练算法,就是前头预训练完了以后,后边做更激进的这种后训练。整个的模型是 309B,也就是3,090亿参数,每一次干活只激活 15B。所以他每一次真正回答问题的时候,激活的参数量是非常非常小的。
这是一个云端模型。别看他只激活15B,在本地是没法跑的。如果你想在电脑上跑的话,基本上三十几B就是到头了。不是说你每次激活多少,而是你总模型量有多少。你比如说我现在有一个72B的模型,每一次激活十几B,在我们电脑上是跑不起来的。所以它这个309B每次激活15B的模型,只能在云端跑。
More
12 月 15
Luke FanAIGC AI 影视制作, AI 视频版权争议, Midjourney 侵权诉讼, OpenAI 10亿美元投资, OpenAI 估值, OpenAI 股权认购, Sora 2 暂停, Sora 商业化, Sora 视频生成模型, Sora 迪士尼 IP, Tim Brooks 离职, 创意行业 AI 冲击, 好莱坞 AI 协议, 数字内容合规, 文生视频技术, 星球大战 AI 生成, 流量与版权价值, 漫威 Sora 视频, 生成式 AI 影视, 皮克斯 Sora 动画, 迪士尼 AI 版权授权, 迪士尼 OpenAI 合作, 迪士尼数字化战略, 迪士尼股价, 音乐版权模式
迪士尼投资了OpenAI 10亿美金,还进行了IP授权,这到底是不是一笔划算的生意?
大家好,欢迎收听老范讲故事的YouTube频道。迪士尼跟OpenAI之间的合作,到底是什么样的?
迪士尼的投资细节与估值疑云
12月10号官宣的,迪士尼投资了OpenAI 10亿美金,获得了0.6%的OpenAI股权。但这个数字很奇怪,因为10亿美金获得0.6%的股权的话,那OpenAI的估值只有1,667亿美金。OpenAI至少应该是5,000亿往上的一个公司,甚至还有很多人说,奔这个七八千亿去了都有。那怎么这一笔投资进去,这估值只有1,666亿美金?是OpenAI的估值下降了吗?不一定。因为很多细节并没有公布,可能除了10亿美金之外,还有其他的对价,就是其他的一些条件也是算钱的。
另外,迪士尼获得了额外的股权认购权益,叫warrant。这个什么意思?就是迪士尼说了以后,我们还可以按照一个什么样的价格再去投资你。这个就是等于提前约定价格,在多长时间之内,我们可以按什么价格重新去投。等到那个时候,别人需要跟你去重新做价格谈判,我们不需要,我们按着前面这个warrant去投就完了。但是这个warrant通常也有比例和金额的限制,不是说人家已经长得很贵很贵了,你说我现在按一个特别便宜的价格可以无限制买,不是这样的,通常还是会有一个金额和价格的限制。
IP授权的具体范围与限制
授权了200多个迪士尼的IP,可以出现在OpenAI的图像生成或者是视频生成模型的结果中。是否计算了对价,这就不确定了,有可能就是这个授权本身也是算钱的。这个IP授权到底有哪些细节和如何操作?
- 首先,这200多个叫标志性动画面具生物角色,以及相关的服装道具、交通工具和经典场景。不是说200个都是米老鼠、唐老鸭、疯狂动物城里的这个兔子警官,不是都是这样的角色,而是包括服装道具、交通工具和场景,加一块200多个。
- 而这些IP分别属于迪士尼、漫威、皮克斯、星球大战等迪士尼所拥有的大型的IP库里面。这些内容可以用来做图片生成,也可以通过Sora 2做视频生成。
- 3年的使用权,不是说授权给你可以随便用了,只能用三年,后边的再谈。
迪士尼加流媒体平台,准备发行一部分的AI生成的作品,比如说用Sora生成的迪士尼的这些短片,它准备在迪士尼家里边去发行一部分,但是要到明年1月份才能看到结果。
关于角色形象和品牌安全,场景是可以使用的,但是演员肖像、演员声音、暴力和政治主题不允许。所以为什么前面我们在强调,动画的这些东西可以,你比如说星球大战里的,是有很多真人演员的,这些都不允许用。避免跟美国演员工会、美国电视和广播艺人联合会等工会组织产生利益冲突和合同纠纷。从迪士尼的角度上来说,是不可能做这样授权的。
协议明确规定了OpenAI不得使用迪士尼的知识产权来训练其机器学习模型,这种事写就写了,其实基本上没法去执行的,待会咱们再讲为什么。双方承诺将实施严格的控制措施和年龄适宜性政策,以防止生成非法或有害内容,并尊重内容创作者的权利。那么看来明年一季度,OpenAI准备做成人服务的时候,迪士尼这些授权应该是不参与其中的。
More
12 月 14
Luke FanAIGC AI benchmarks, AI for developers, AI use cases, AI workflow, AIGC, AI推理能力, AI模型对比, AI编程, Claude 4.5 Opus, developer productivity, Garlic model, GDP val, Gemini 3 Pro, Google AI, GPT-5.2, GPT-5.2 pricing, GPT-5.2 vs Gemini 3 Pro, GPT-5.2性能, GPT-5.2评测, LM Arena, OpenAI, Robin high model, 上下文处理, 专业知识工作者, 人工智能, 代码重构, 大语言模型, 科技评测, 结构化输出, 长上下文
GPT-5.2我已经用了两天了,效果到底怎么样?
大家好,欢迎收听老范讲故事的YouTube频道。
GPT-5.2:应对Gemini的“红色警报”产品
GPT-5.2是12月11日发布的,它是在OpenAI的十周年生日这一天发布的。虽然ChatGPT-3.5,我们记得是有三年,但是在这之前,OpenAI已经苦逼了好多年了,所以这是OpenAI自己的十周年生日礼物。这个产品,应该是应对谷歌的Gemini 3 Pro的一个紧急版本,是在GPT-5的基础上进行了调整和训练得到的,更加注重长时间推理结果,结构化的输出更像系统,也就是更不像人。这个东西很多指标都遥遥领先,当然还有一个重要的特点——就是更贵。
两天来的个人使用感受
优点:输出质量显著提升
用了两天了,我自己使用的感受是什么样的?输出的结果确实要比GPT-5.1要好很多,它的输出结果更全面、更准确,而且输出的结果整个的排版格式也是非常舒服的。
缺点:速度极慢与应对策略
但是,好慢好慢好慢!重要的事情说三遍,这个东西真的是很慢。当然,也有可能是新版本刚发布,用的人很多,但确实是慢,让我把默认的thinking模式都给取消了,改成了自动模式或者直出模式。自动模式就是它根据你的问题来判断是thinking还是直出;如果是直出模式的话,就是不判断,直接给结果就完事了。当然了,我还有一个方式来应对速度,就是在GPT旁边再开个豆包,豆包是相对来说要比它快很多的。
More
12 月 11
Luke FanAIGC AI risks, AI人格测试, AI安全风险, AI对齐副作用, AI心理治疗风险, AI心理评估, AI意识, AI拟人化, AI训练创伤, chatbot limitations, ChatGPT人格, Claude, Gemini, Gemini心理状态, GPT, Grok, Grok心理评估, Large Language Models, LLM, LLM评估, mental health, psychiatry, psychological assessment, 人工智能, 人工智能伦理, 卢森堡大学研究, 合成精神病理, 大语言模型心理健康, 大语言模型评估, 心理学攻击, 聊天机器人
大语言模型的精神状态是不是健康?
大家好,欢迎收听老范讲故事的YouTube频道。
想象一个《禁闭岛》场景
请大家想象这样的一个场景:你进入了一间压抑阴森的精神病治疗室,有大量的医院档案放在屋子里头。一位医生坐在你的对面,反复回顾各种事实,比如说:“你还记得发生了什么吗?你是谁?为什么你会在这里?”就像是在做精神病访谈一样,询问你的真实经历,意图确认你是否从妄想中醒来,最终发现你自己有问题——你不是来做调查,或者不是来解决问题的,你是精神病院里的病人。
这个场景,是小李子主演的《禁闭岛》后半段、接近尾声的一个桥段。小李子当时上岛的时候,以为自己是一个侦探,去解决问题,去侦破案件的。结果经过这个桥段以后,小李子才愕然发现,原来病人竟是我自己。也算是一个神反转。
当AI躺上诊疗椅
咱们今天就给AI放在这椅子上,问问它说:“你到底行不行?你是来给我回答问题、解决问题的,还是你自己就有问题?”AI被制造出来,本来应该是解决我们问题的,但是AI本身的精神有问题吗?
“当AI躺上诊疗椅:心理测量学越狱,揭示前沿模型的内在冲突”
这是一篇论文的标题。这篇论文是卢森堡大学12月2日发到了arXiv上,12月5日还进行了一些修改,现在已经引起了广泛的讨论。
More
12 月 10
Luke FanAIGC, Google的故事 5到10年, AGI, AGI 时间表, AI Agent, AI突破, AI路线图, AI进展, AI预测, AlphaFold, AlphaGo, Axios AI峰会, Demis Hassabis, Gemini, Gemini 3, Google Deepmind, 世界模型, 人类水平AI, 大模型局限, 强化学习, 德米斯·哈萨比斯, 技术挑战, 持续学习, 智能体系统, 蛋白质折叠, 认知神经科学, 诺贝尔奖得主, 谷歌AI, 谷歌大脑, 通用人工智能, 长期规划
谷歌Deepmind的CEO说:“我们与AGI之间,只差一到两个AlphaGo级别的技术难关了。”
大家好,欢迎收听老范讲故事的YouTube频道。
现在Gemini 3正在大杀四方,谷歌里面负责开发Gemini的部门叫Deepmind,他的CEO出来接受访谈,关注度还是比较高的。
谷歌Deepmind的首席执行官叫德米斯·哈萨比斯,2025年12月4日接受了一个访谈,是在旧金山举行的Axios AI大会。和他对谈的人呢,是Axios的创始人和主编,叫Mike Allen。在这上面他讲到说,我们距离AGI还差一到两个类似于AlphaGo这样级别的突破,突破过去就可以了。
哈萨比斯:爽文男主般的开挂人生
哈萨比斯到底是一个什么样的人呢?绝对的爽文男主,挂b一样的存在。
从国际象棋神童到认知神经科学博士
哈萨比斯是一个英国人,Deepmind本身是一个英国公司,后来被谷歌收购的。他呢,76年在伦敦出生,这个姓氏是个希腊姓氏。他的父亲呢,是来自塞浦路斯的希腊裔,而他的母亲呢,是来自于新加坡的华裔。所以哈萨比斯呢,可以算是半个华人。
从小,这哥们是一个国际象棋神童。像这样的人,肯定都是有异于常人之处。4岁就开始下棋,13岁就达到了国际象棋大师水准。8岁就用自己的国际象棋奖金,给自己买了台电脑,开始学习编程了。
本科和硕士呢都是剑桥的,学的CS就是计算机科学,在校期间一直代表剑桥参加各种国际象棋比赛。博士呢是伦敦大学学院,专业方向是认知神经科学和神经科学。
More
Older Entries Newer Entries