9 月 03
Luke FanAIGC, Meta的故事 AI 投资, AI人才争夺, AI团队, AI模型, Alexandr Wang, ChatGPT, Claude, Gemini, LLaMA, Llama 5, Meta AI 战略, OpenAI, Scale AI, 企业并购, 公司重组, 外部模型, 并购失败风险, 并购整合, 战略调整, 扎克伯格, 数据标注, 数据质量, 科技公司裁员, 科技行业分析, 谷歌AI, 预期管理
Meta的抢人大战,难道要一地鸡毛了吗?
大家好,欢迎收听“老范讲故事”的YouTube频道。
到底发生了什么呢?跟着亚历山大·王一块入职的ScaleAI的高管,突然因为个人原因离职了。有些人呢,刚被挖过来,屁股还没坐热呢,又离职回去了。ScaleAI被曝出数据质量太差,Meta在采购ScaleAI的数据同时,还去采购了竞争对手的高质量数据。因为大家知道,ScaleAI是做数据标注的,你要想去训练新模型,你就要去采购数据。我这边投了这么多钱了,发现不能使,还得买别人的。
还有什么呢?ScaleAI失去了谷歌和OpenAI这些大客户以后,被爆出来进行了大力的裁员。Meta现在正在使用竞争对手的产品,比如跑去使用ChatGPT、使用Gemini、使用Anthropic的Claude,去使用这玩意儿去了。以及爆出Meta内部的管理非常混乱。
More
7 月 15
Luke FanAIGC, Musk传奇 20万H100显卡, 256K上下文, AI大模型, AI安全中心, AI融资, AI进程改变, API调用, Claude, DeepSeek, Elon Musk, Gemini, Grok Heavy, Grok2, GROK3, GROK4, LLaMA, OpenAI, Oracle云, Scale AI, XAI, 三体小说, 中美AI差距, 人类终极测试, 企业私有部署, 众包题库, 动态任务池, 华为盘古, 南京大屠杀, 南非白人种族屠杀, 多智能体合作, 多模态AI, 川建国, 工具支持, 市场占有率, 开源承诺, 强化学习, 意识形态投毒, 技术爆炸, 推理能力, 日本烟花事件, 昇腾芯片, 模型蒸馏, 模型迭代, 理工男模型, 电力消耗, 科研提速, 算力竞争, 编程工具, 视频生成, 越狱提示词, 过拟合预防, 预训练模型, 马斯克发布会, 黄仁勋访华, 黄色小说生成, 黑暗森林法则, 黑色幽默
史上最聪明的AI大模型GROK4诞生了。马斯克亲自坐镇开发布会。视频发布会呢,并不是特别的顺畅。第一个呢,是他晚了一个小时,也没说为什么。反正马斯克的直播经常会晚。然后呢,太多的东西需要集中发布,上下衔接的呢比较仓促一点。
最早期很多的互联网公司开发布会也是这样的,两三个小时七差咔嚓发一大堆东西。后来OpenAI这些公司习惯了在网上开直播以后呢,就慢慢把这风格改了。改成什么呢?就是每次发一个功能,发个十分钟二十分钟就完事了。然后呢,不停的发,每个月发每个月发。Xai呢,现在还没有彻底学会这件事情,还是一股脑给大家扔了一大堆东西出来。
我们以前在面对创业者的时候,每次都会苦口婆心的去做一种劝告。大家可能不知道会劝什么。作为投资人来说,我们每次看到任何一个创业者,都会上去劝一件事,叫不要憋大招。你一次要惦记着做一个大的东西,就很容易失败。你应该是做一些小的东西,一点一点放出来。OXAI现在还是憋了一个大招。当然了,XAI后面呢,也会每个月发布一个新的工具出来,它也慢慢的向这样的一个方向去前进。
More
6 月 11
Luke FanAIGC, Meta的故事 AI产业链, AI伦理, AI大模型, AI技术, AI投资, AI数据, AI算力, DeepSeek, FTC, H100, H800, LLaMA, Llama 4, Meta, OpenAI, Sam Altman, Scale AI, YC, 亚历山大王, 亚马逊, 华人创业, 合成数据, 商业分析, 微软, 扎克伯格, 数据垄断, 数据标注, 模型微调, 科技巨头并购, 科技行业动态, 科技评论, 美国国防部, 老范讲故事, 自动驾驶数据, 英伟达, 谷歌
Scale AI得到了Meta超过百亿美金的投资,AI圈又热闹起来了。大家好,欢迎收听老范讲故事的YouTube频道。
Scale AI这个名字怎么好像在哪听说过呢?好像有点耳熟,对吧?他呢,有一位特别传奇的CEO,或者叫创始人吧,叫华人天才少年CEO亚历山大王。当时呢,跳出来指责DeepSeek用H100的就是他。
DeepSeek R1到底是怎么训练的?引起了广泛的关注。DeepSeek自己讲呢,我使用了2,000多块的H800就完成了训练。但是亚历山大王呢,在一次接受采访的时候就出来说了,中国实验室里边拥有的H100的数量远超大家的想象,DeepSeek自己至少有5万块H100。但是这个话呢,没有实际证据,讲完了也就完了。DeepSeek跟亚历山大王之间呢,并没有就这个事情进行认真的探讨,所以这个我们把它当成一种谣传吧。
3月份呢,DeepSeek自己再次发了声明,说他们训练的都是使用的合规的GPU,也就是允许向中国出口的这些GPU。因为如果不说这个的话,美国就有可能要求说禁止使用这玩意儿。DeepSeek就讲了说,甭管是R1也好,V3也好,训练呢都是使用的H800,或者是后面的H20这些GPU训练的。
More