12 月 31
Luke FanAIGC, Meta的故事 20亿美元收购, AI代理, AI投资, CRM系统, Manus AI, Mark Zuckerberg, Meta AI, Meta Platforms, Meta收购Manus, WhatsApp Business, 业务产品整合, 企业级AI, 商业自动化, 市场调研AI, 战略并购, 新加坡AI初创公司, 流量变现, 深度研究Deep Research, 社交媒体AI, 自主智能体
Meta花了几十亿美金收购了Manus,这到底是为了什么呢?
大家好,欢迎收听老范讲故事的YouTube频道。
12月30号早晨起猛了,看到了这样的消息:Meta跟Manus双方一起官宣,几十亿美金进行了收购。职业病犯了,几十亿美金到底是多少钱呢?大概率是20多亿,应该会比20亿稍微多那么一点点,但是也绝对不会达到50亿。所有说几十亿的,一般是在这个范围内,20亿到50亿之间。
扎克伯格的“豪掷”收购史
现在呢都在喊,这是Meta有史以来第三大并购。扎克伯格呢,自己有这样的一个习惯,喜欢砸重金直接收购成熟的企业。他并不喜欢像谷歌,或者像很多的互联网公司这样,从很小的公司去扶植,他就直接买这个大的。
扎克伯格买的最贵的公司是谁呢?就是Scale AI。它的对价是290亿美金,Meta出了143亿收购了Scale AI的控制权,并没有完全收购下来,因为要面对反垄断法,而且也确实是很贵。
第二名是WhatsApp,160亿美金,那是2014年的160亿美金。2014年的160亿美金跟现在的290亿美金,到底哪个贵?这个还真不太好说。
今天说Manus这个是第三名。第四名呢是Oculus,就是那个VR眼镜,当年呢是20亿美金。但是呢那也是2014年的20亿美金,放到今天的话,也是要通货膨胀很多的。再往后一个是10亿美金的Instagram,这个都是现在大家耳熟能详、每天都离不开的这些工具,那是2012年10亿美金。
还有呢,2020年他收购了一个叫Kustomer的公司,是做CRM系统的。但这个公司呢比较有骨气,2020年收进去了以后呢,在里边混了三年以后,自己赎身剥离独立了,Meta没有控制住他。
More
12 月 23
Luke FanAIGC Abstract World Models, Advanced Machine Intelligence, AGI, AI Startup, AI创业, AI未来, AMI, Autonomous Driving, Deep Learning Limitations, Dog Intelligence, Future of AI, Intelligent Agents, JEPA, LLM Dead End, LLMs, Meta AI, Minimum Cost, Open Source AI, Physical AI, Physics & Planning, Robotics, Safety Alignment, Spatial Intelligence, System 2 Reasoning, World Models, Yann LeCun, 世界模型, 大模型死胡同, 大语言模型, 开源AI, 抽象世界模型, 智能体, 最小消耗, 机器人技术, 杨乐坤, 深度学习局限, 物理AI, 物理与规划, 狗的智能, 空间智能, 系统2推理, 联合嵌入预测架构, 自动驾驶, 通用人工智能
杨乐坤“暴论”:大语言模型是扯淡,连狗都不如?解读他的世界模型与新创业项目AMI
“我认为这完全是扯淡,这条路根本就不可能成功。”这是杨乐坤在最新的访谈中对大语言模型路线的评价。这是语不惊人死不休的这种暴论吗?还是说他真的有一些什么事情想做?
大家好,欢迎收听老范讲故事的YouTube频道。
12月15日,杨乐坤发布了他最新的访谈。访谈是在一个叫做“信息瓶颈”的播客中进行的,位置应该是在纽约大学。杨乐坤当时还在Meta站好最后一班岗,三周以后会正式离职。访谈接近两个小时,我尽量讲一些里边有意思的部分。
现在的大语言模型还无法跟狗的智能相比,这个也是其中比较有趣的一点。到底杨乐坤想做的世界模型,以及他的JEPA是如何工作的?对于我这个讲述者和各位听众来说,都是一个挑战。请耐心听到最后,然后告诉我,我到底讲明白了没有?你们到底听懂了没有?杨乐坤要去做的AMI,也就是创业要做的这个新公司,到底是干什么的?怎么挣钱?咱们今天就讲这几块。
第一块:杨乐坤为什么觉得大语言模型完全是扯淡?
这里头要讲到的最核心的观点叫“序列化”。大语言模型工作的方式,是把整个世界的这些语言进行序列化。所谓序列化是什么?就是把所有的语言变成TOKEN,然后把这些TOKEN离散掉,谁跟谁之间都没有关系,再通过把全世界的语言搁在一起进行统计、进行训练,重新建立起这些TOKEN与TOKEN之间的关系。它是这样来工作的。
而且要注意一点,语言这个东西本身就是一个世界映射,语言只能表达世界中的很少一部分。哪怕是同样的语言,你用不同的语气语调来说,都会表达不同的意思。而不同的语气语调,你在语言中是完全无法看到的。所以语言只是真实世界的一个稀疏映射,大量的信息被错漏了。所以在TOKEN化的这个过程中,大语言模型其实把大量世界本身相关的信息都扔掉了,特别是那种连续的信息。
因为大语言模型通常能干的事是什么?就是预测下一个词应该说什么,哪个词是最好的。但是在这个过程中,它对于让世界演变这些连续事件,它是没有办法去进行预测的,因为它在序列化的过程中就把所有这些关联全扔了。
More
11 月 21
Luke FanAIGC, Meta的故事 Advanced Machine Intelligence, AI pioneer, AI research, AI Startup, AI strategy, AI商业化, AI教父, AI科学家, Alexander Wang, chief AI scientist, Facebook AI, FAIR, godfather of AI, JEPA, launch startup, Llama大模型, machine intelligence, Meta, Meta AI, Meta AI战略, PyTorch, world model, Yann LeCun, Yann LeCun leaves Meta, 世界模型, 人工智能, 具身智能, 图灵奖得主, 大语言模型, 扎克伯格, 李飞飞, 杨乐坤, 杨乐坤离职, 非生成式AI
杨乐坤出走Meta:一场关于战略、用人和未来的博弈
大家好,欢迎收听老范讲故事的YouTube频道。
这一天还是来了。前面我们已经猜测了很久,说杨立昆到底什么时候会离开,因为所有人都眼睁睁地看着Meta的AI战略转换方向。亚历山大·汪进入Meta,一个28岁的辍学生,在管理65岁的大学教授和图灵奖得主,这个事一定不能长久。而且前面还对杨立昆手下的FAIR部门进行了600人的裁员。
靴子落地:杨乐坤宣布离职
现在靴子终于落地了。2025年11月19日,当地时间13:20,杨立昆发了一个长文宣布离职了。在这个文章里边,他回顾了一下在Meta待了12年,感谢了小扎和一堆高管,然后准备要去做他的AMI。他这个AMI呢,叫做“高级机器智能”,说:“我在Meta期间就一直在干这件事,现在呢我准备出去了以后接着干。”而且新公司呢,Meta依然还有参与,具体的情况后续再公布。他呢,也终于可以不受Meta的限制,去研究自己的世界模型了。
杨立昆也要去做世界模型,跟李飞飞有些相近。最后咱们再说一下,他的世界模型跟李飞飞的世界模型到底有什么差别。
Meta呢,应该在这个里边还是给了钱的。你请这样的一位大神出去,而且大神在发文的时候还感谢了扎克伯格,那一定还是要给钱的。所以杨立昆未来的公司里头,Meta应该还是一位重要的股东。但是到底给了多少钱,占了多少股份,可能还要等未来Meta的官宣,现在应该公司还在注册过程中吧。
More
4 月 09
Luke FanAIGC, Meta的故事 AI伦理, AI生成, AI评测, AI负责人辟谣, Benchmark作弊, DLIU DLIU, Llama 4, LLM, Meta, Meta AI, Meta回应, 人工智能, 作弊指控, 内部爆料, 基准测试, 大语言模型, 学术不端, 实际使用效果, 开源模型, 开源社区, 快速发布后果, 性能评估, 技术报告缺失, 数据污染, 模型蒸馏, 沃顿商学院教授, 测试集污染 (背真题), 版本不一致 (开源vs测试), 科技争议, 科技新闻, 稳定性问题, 编程能力差, 自然语言处理, 跑分作弊, 过度优化, 验证方法
Meta的Llama4发布之后,深陷作弊风潮。大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲Meta的Llama4被人怀疑作弊,他到底是不是真的作弊了。
前面我们做过一期视频,说Llama4发布的时候没有太大的响动,因为它出来以后发现,虽然评测还不错,但是使用起来并没有感觉比现在主流的模型强到哪去。现在不行了,负面消息传出来了,说你大模型出来的时候跑分的成绩很高,但是我们使起来不是这么回事,有点名不副实的样子,特别是编程的效果极差。
为什么大家去比较编程呢?两个原因:
第一个,去玩这些开源大模型的,一般都是程序员。
第二个,编程是一个相对来说标准比较统一的评测。你编得出来编不出来,编完了效果怎么样,这个一眼就能看出来,没法作假。你说我写个诗或者写个小说,这个玩意还有仁者见仁、智者见智的时候。这编程这个东西,对就是对,不对就是不对,或者你做完了以后它的效果有问题,一眼就能看出来。所以现在被人质疑了。
More
4 月 07
Luke FanAIGC 1000万Token上下文, 400B, AI Agent, AI应用场景, AI新闻, AI未来发展, AI模型发布, AI竞赛, AI算力, Claude 3.7, DeepSeek, FP8精度, Function Call, Gemini 2.5 Pro, GPT-4o, Grok (XAI), H100 GPU, INT4量化, Llama 3, Llama 4, Llama 4 Behemoth, Llama 4 MARVELIC, Llama 4 Scout, Llama 4发布反响平淡原因, LLM, Meta AI, Meta战略, Mixture of Experts, MOE架构, 专家模块, 中文能力提升, 人工智能, 全模态AI进展, 千问 (Qwen), 卡估值, 多模态输入, 大语言模型, 字节AI, 小模型竞争, 开源LLM对比, 开源模型, 开源模型内卷, 开源社区, 推理速度, 文本输出, 模型微调, 模型性能比较, 模型测评, 模型训练, 活跃参数, 流量入口, 知识蒸馏, 硬件要求, 端到端模型, 腾讯AI, 谷歌AI, 超级APP趋势, 长上下文, 阿里AI
Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?
大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。
Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。
现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。
More