1 月 23
范, 路AIGC AGI, AGI timelines, AGI时间表, AI chips, AI Governance, AI安全, AI治理, AI芯片, Anthropic, ByteDance, China, chip export controls, Dario Amodei, Davos, DeepSeek, Demis Hassabis, economic impacts, Google Deepmind, Great Filter, H200, human-level AI, jobs, Macroeconomic Abnormality, North Korea, nuclear weapons, societal impact, Tech Adolescence, US-China Tech War, World Economic Forum, 世界经济论坛, 中国, 中美科技战, 人类水平AI, 后稀缺时代, 哈萨比斯, 大过滤器理论, 字节跳动, 宏观经济异常, 就业, 技术青春期, 朝鲜, 核武器, 社会影响, 经济影响, 缩放定律, 芯片出口管制, 达沃斯, 通用人工智慧, 阿莫迪
“给中国供应H200,就是给朝鲜供应核弹。”
大家好,欢迎收听老范讲故事的YouTube频道。
这是2026年达沃斯论坛上,Anthropic CEO阿姆戴伊语出惊人了。达沃斯世界经济论坛最近在开,上头有很多有趣的演讲、有趣的访谈。这一次是在1月20号的一个访谈上,主题叫“AGI之后的一天”,就是我们已经实现AGI了,该怎么办。
主持人是《经济学人》的一位主编,他就去问Anthropic的CEO阿姆戴伊了。他的问题是什么?如何看待美国政府的一种逻辑:我们需要卖给中国芯片,因为我们需要确保通过供应链将他们与美国绑定在一起。
美国政府(黄仁勋)的逻辑 vs. 阿姆戴伊的反驳
其实这不是美国政府的逻辑,这是黄仁勋的逻辑。黄仁勋的意思就是:如果我们不卖给他们芯片,过一段时间他们自己造出来了,可能跟我们这个路线就不一样了,这个更可怕;还不如我们就卖给他,只要我们一直卖给他们芯片,他们就自己不努力了。
从历史上来说也确实如此,中国到现在为止没有自己的操作系统,就是因为原来Windows基本上是不打盗版的,Office其实打盗版打的也不好,所以WPS这些是在非常非常后期才逐渐发展起来的。黄仁勋说咱们也这样,咱只要卖给他芯片,他们就不自己研究了。
这个主持人就问了这样的一个问题,阿姆戴伊的回答是什么?他说:
“这就像是决定向朝鲜出售核武器,仅仅因为这能给波音公司带来利润,或者因为那是波音制造的,就觉得美国赢了。”
他认为这种为了商业利益而扩散极度危险,技术的权衡是完全讲不通的。
More
1 月 13
范, 路AIGC, 墙国的奇葩商业故事 0到1創新, AGI, AI Agent, AI Memory, AI創新, AI應用落地, AI算力差距, AI算力瓶頸, Anthropic, DeepSeek, OpenAI, ToB與ToC, 中國AI, 中美AI競爭, 大模型, 智譜AI, 模型分化, 美國AI, 老范講故事, 能源與AI算力, 自主學習, 通用Agent, 閉門會議, 阿里通義千問, 騰訊AI
中国顶尖AI企业的大脑们:承认中国不擅长做从0到1,但擅长做从1到100
中国顶尖AI企业的大脑们,坐在圆桌会议上,终于承认了中国人不擅长做从0到1,但是很擅长做从1到100。
大家好,欢迎收听老范讲故事的YouTube频道。
中国企业超越美国同行的机会不超过20%。中国企业将算力都用在了做交付上、做确定性的事情;美国则是将更多的算力用在做新方向的探索上。中国一旦发现了明确的方向,会快速赶上,会在很多的点上做的比美国更好。
背景:AGI Next 闭门峰会
这些话是在什么时候传出来的?1月10日,有一个会叫AGI next,算是一个闭门峰会。这个会是刚刚上市的智谱他们组织的。因为是闭门会议,所以我们只看到了一些总结归纳,并没有看到完整的视频。前面有一些演讲,最后有一个圆桌会议,四个人在上面进行讨论。前边咱们讲的这个“暴论”,就是在这个圆桌会议里边出来的。
圆桌会议的四位嘉宾
- 唐杰:智谱的创始人。他的发言逻辑中充满了矛盾,这种做ToB项目的人很难逻辑自洽的,所以他的发言后边我们会引用的比较少。
- 杨强:香港科技大学荣休教授,加拿大皇家科学院工程院院士。他站在学术界的角度上,讲的很多东西跟我们日常所熟悉的也是有很大差距的,所以后面引用他的话应该也不多。
- 姚顺雨:腾讯刚刚从OpenAI挖回来这兄弟,他是CEO总裁办公室首席AI科学家,算是前OpenAI研究员。这哥们是一个绝对的聪明人,很多地方都有独到的见解,逻辑很清晰,但是也很圆滑,不太会踩坑。
- 林俊旸:这个字我不查还不认识,左边是一个日,不是木——他是阿里巴巴通义实验室、千问的技术负责人。这哥们是个直男,上面那段话就是他说的。很多大实话别人都绕着说,只有他敢直接说。
More
12 月 19
Luke FanAIGC, 雷军、小米 DeepSeek, MiMo-V2 Flash, 云端Agent, 人车家全生态, 供应链管理, 商业模式, 大模型应用, 小米AI战略, 小米大模型, 小米汽车, 小米转型, 性价比, 技术护城河, 智能驾驶, 机器人, 混合专家模型, 澎湃OS, 研发投入, 端侧AI, 罗福莉, 股价下跌, 自动驾驶, 自研芯片, 资本市场, 雷军
罗福莉发布了小米MiMo-V2 Flash新模型,小米股价却应声下跌了
大家好,欢迎收听“老范讲故事”的YouTube频道。
关于 MiMo-V2 Flash 模型发布
12月17号开的发布会,罗福莉终于站上了小米的舞台,发布了新模型 MiMo-V2 Flash。这是一个MoE的模型,这倒是不出乎人意料,因为现在新的模型基本上都是MoE。而且罗福莉作为Deepseek V2的主要创作者,MoE就是从他手里头发扬光大的。
但是MiMo-V2 Flash这样的一个模型,使用了更强的后训练算法,就是前头预训练完了以后,后边做更激进的这种后训练。整个的模型是 309B,也就是3,090亿参数,每一次干活只激活 15B。所以他每一次真正回答问题的时候,激活的参数量是非常非常小的。
这是一个云端模型。别看他只激活15B,在本地是没法跑的。如果你想在电脑上跑的话,基本上三十几B就是到头了。不是说你每次激活多少,而是你总模型量有多少。你比如说我现在有一个72B的模型,每一次激活十几B,在我们电脑上是跑不起来的。所以它这个309B每次激活15B的模型,只能在云端跑。
More
10 月 22
Luke FanAIGC, DeepSeek大模型, 区块链很疯狂 AI trading competition, AI实盘交易, AI投资, AI盈利能力, Alpha Arena, Autonomous trading, Claude, Crypto trading, DeepSeek, Gemini, GPT-5, Grok, LLM benchmark, nof1.ai, Real money trading, 交易策略, 加密货币投资, 去中心化交易所, 大模型炒币, 投资机器人, 数字货币, 模型性能对比, 永续合约, 量化交易, 金融科技
在炒币这件事上,DeepSeek完胜GPT和Gemini。
大家好,欢迎收听老范讲故事的YouTube频道。
最近有一件事闹得沸沸扬扬,也就是Alpha竞技场。有一个叫NOFE.AI的实验组织,他们组织了一场由大模型炒币的一个实验。这个实验室的组织者呢,是纽约大学机器学习领域的一位博士候选人,应该算是一个学术组织,并不是一个炒币的机构。他呢,想要让大模型使用真金白银,直接在币市里边去进行竞技,而不是去做什么模拟题,做各种什么模拟盘,直接真金白银开干。
比赛呢,是从10月17日开始,每一个大模型给1万美金的启动资金,到现在呢,胜负已经非常明显了。DeepSeek V3.1完胜,他挣的钱最多。Grok-4紧随其后,也是盈利的。盈利的曲线呢,跟DeepSeek V3.1很像,但是这里呢,并不是因为Grok-4抄了V3.1,或者在DeepSeek的基础上去训练出来的,而是什么呢?就是你市场本身是有一个波动曲线的,他们只要采用相近的策略,他们盈亏的曲线就会比较接近。
再往后呢,是Claude sonnet 4.5,它表现得呢要稍微差一些,但也是盈利的。Qwen3 MAX也参加了,稍微地赚了一点点,大概是挣了几百美金吧,基本没赔。有一个对照组,对照组是什么呢?就是买入比特币直接持有,因为你总要跟市场的大势去进行比较嘛。这个组呢,是挣得要更少一些,大概挣了300多美金。Qwen3 MAX大概挣了700多美金,所以Qwen3 MAX还是跑赢了持币观望组的。
More
10 月 01
Luke FanAIGC, 马云和阿里的故事 AGI, AI, AI Agent, AI商业化, AI生态, AI编程, ASI, Cathie Wood, DeepSeek, Qwen-Max, 中美AI竞争, 云溪大会, 云计算, 亚马逊AI, 全栈AI, 基础模型, 多模态, 大模型, 开源, 开源大模型, 微软AI, 战略, 投资逻辑, 木头姐, 模型推理, 生成式AI, 算力, 视频生成, 谷歌AI, 通义万象, 通义千问, 阿里云, 阿里云大模型, 阿里巴巴, 阿里巴巴AI, 阿里股票
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲,阿里到底是不是中国的AI之光所在呢?
这几天正在开阿里的云溪大会,9月24号到9月26号开。这一次的口号呢,叫“云智一体,碳硅共生”,提的口号很神奇。当然,最神奇的还不在这,咱们待会往后看神奇在什么地方。4万平米的展厅,500多家企业参与,6万多人到现场,这个是一个非常大规模的会。
那么还宣布了什么呢?与英伟达合作做物理AI。现在呢,谁也不敢宣布说与英伟达合作,买人家的这个RTX6000,现在只能说我们做一个别的合作吧。什么是物理AI呢?就是做机器人相关的AI,做机器人的仿真训练、量化强化学习和仿真测试,做这玩意的。英伟达在这块也确实是很强。阿里呢,也会去投资很多的这种机器人公司,所以这个宣布了以后也是一个重大利好。
而且呢,阿里现在绝对是全世界开源AI领域的扛把子。原来最早的扛把子是Meta,出了Llama,出了这么多模型以后,现在阿里接过了这一面大旗。阿里开源的模型,在Hugging Face上基本上是站到最前面的一批了。以阿里开源模型为基础再微调出来的其他的各种模型有几万个,现在基本上属于事实标准的一个状态。所以只要说开源的大模型,大概率是拿阿里通义千问的这个模型去调出来的。那这点呢,其实也很符合阿里的调性,就阿里的这些模型都属于他没有那种很强的这种个性,或者很强的这种能力,但是指令依存度、逻辑推理能力这块都是达标的,这个还是一个很好的底座。
More
8 月 27
Luke FanAIGC, Musk传奇, OpenSource 5090D), AI Agent, AI大模型, DeepSeek, Grok-2, H20, JAX, Kimi, LLaMA, Meta, MIT协议, MOE架构, NVlink, OpenAI, SGLANG, UC伯克利, XAI, YouTube频道, 上海交通大学, 中美科技, 人工智能, 全球协作, 华为 (盘古大模型), 商业许可, 尹良生, 巨硬 (Gigabrain), 开源, 开源生态, 开源许可 (License), 微软 (Microsoft), 技术借鉴, 技术科普, 抄袭争议, 显卡要求 (H800, 智谱, 深度解析, 百度, 科技评论, 算力, 老范讲故事, 自主研发, 苹果 (Apple), 行业内幕, 谷歌 (Google), 郑连敏, 部署难度, 阿帕奇2.0, 马斯克, 高性能计算
马斯克终于开源了他的Grok-2。虽迟但到,这背后隐藏着哪些不为人知的秘密呢?
大家好,欢迎收听老范讲故事的YouTube频道。
马斯克最终还是开源了他的Grok-2。原来我们还嘲笑过他,Grok-1开源完了,往那一扔就再也不管它了,有任何人提问题,你也不说什么。Grok 4都出来了,现在Grok 2都没开源出来。马斯克说:“那我们下周开源。”当时是这么讲的。然而下周完了以后,好像还是又等了那么一段时间,稍微晚了这么几天吧,Grok 2最终还是开源出来了。而且承诺呢,6个月之内,或者说在年底之前吧,有可能会去开源Grok 3。但是马斯克的话嘛,大家相信,就是他说了的事会做,但是未必按时间做。
马斯克的开源呢,只能算是符合非常广义的开源。这话什么意思呢?开源也是分原教旨主义者的,他们是肯定不会认可马斯克在开源的。第一个,马斯克不是当时发布产品马上开源,而是要过一段时间,甚至是过了一年多才去开源。而且现在他开源出来的这个版本,远远落后于当前主流模型。当然Grok 2呢也不算特别落后,它在当时刚推出的时候,应该是跟GPT-4不相上下的一个水平,但是跟后边4O,以及后边O1、O2这些东西就没法比了。跟当前的主流模型,像什么GPT-5、Grok-4、Claude 4或者是Gemini 2.5这些,它是比不过的。
More
8 月 18
Luke FanAIGC, 华为很厉害, 英伟达,NVIDIA,黄教主,GPU AI Agent, AI芯片, AI训练, AMD, Anthropic, B100, Claude 4, CUDA, DeepSeek, Deepseek R2, Function Call, Gemini, Google, GPT-5, Grok 4, H100, H20, H800, Kimi, Llama 4, Meta, NVIDIA, OpenAI, TPU, XAI, 中美科技战, 人工智能, 传闻, 千问, 升腾910C, 华为, 华为升腾, 国产替代, 国产芯片, 大模型, 大模型训练, 字节跳动, 开源, 技术瓶颈, 推理, 散热问题, 浸没式液冷, 液冷, 深度求索, 百度, 算力, 腾讯, 芯片战争, 英伟达, 辟谣, 金融时报报道, 难产
8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。
虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。
国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。
More
7 月 15
Luke FanAIGC, Musk传奇 20万H100显卡, 256K上下文, AI大模型, AI安全中心, AI融资, AI进程改变, API调用, Claude, DeepSeek, Elon Musk, Gemini, Grok Heavy, Grok2, GROK3, GROK4, LLaMA, OpenAI, Oracle云, Scale AI, XAI, 三体小说, 中美AI差距, 人类终极测试, 企业私有部署, 众包题库, 动态任务池, 华为盘古, 南京大屠杀, 南非白人种族屠杀, 多智能体合作, 多模态AI, 川建国, 工具支持, 市场占有率, 开源承诺, 强化学习, 意识形态投毒, 技术爆炸, 推理能力, 日本烟花事件, 昇腾芯片, 模型蒸馏, 模型迭代, 理工男模型, 电力消耗, 科研提速, 算力竞争, 编程工具, 视频生成, 越狱提示词, 过拟合预防, 预训练模型, 马斯克发布会, 黄仁勋访华, 黄色小说生成, 黑暗森林法则, 黑色幽默
史上最聪明的AI大模型GROK4诞生了。马斯克亲自坐镇开发布会。视频发布会呢,并不是特别的顺畅。第一个呢,是他晚了一个小时,也没说为什么。反正马斯克的直播经常会晚。然后呢,太多的东西需要集中发布,上下衔接的呢比较仓促一点。
最早期很多的互联网公司开发布会也是这样的,两三个小时七差咔嚓发一大堆东西。后来OpenAI这些公司习惯了在网上开直播以后呢,就慢慢把这风格改了。改成什么呢?就是每次发一个功能,发个十分钟二十分钟就完事了。然后呢,不停的发,每个月发每个月发。Xai呢,现在还没有彻底学会这件事情,还是一股脑给大家扔了一大堆东西出来。
我们以前在面对创业者的时候,每次都会苦口婆心的去做一种劝告。大家可能不知道会劝什么。作为投资人来说,我们每次看到任何一个创业者,都会上去劝一件事,叫不要憋大招。你一次要惦记着做一个大的东西,就很容易失败。你应该是做一些小的东西,一点一点放出来。OXAI现在还是憋了一个大招。当然了,XAI后面呢,也会每个月发布一个新的工具出来,它也慢慢的向这样的一个方向去前进。
More
7 月 08
Luke FanAIGC AI Agent, AIGC, AI产业, AI幻觉, AI应用开发, AI趋势, Claude 3, DeepSeek, Few-shot (少样例提示), Gemini 2.5 Pro, GPT-4o, Grok, JSON输出, LangChain, LLaMA, LLMOS (大模型操作系统), MISTRAL, OpenAI, RAG (检索增强生成), Shopify, Simon Wilkinson, 上下文工程 (Context Engineering), 上下文窗口 (Context Window), 上下文隔离, 信息压缩, 函数调用 (Function Calling), 大语言模型 (LLM), 安德烈·卡帕西 (Andrej Karpathy), 工具调用 (Tool Calling), 技术解读, 提示词工程 (Prompt Engineering), 模型稳定性, 特斯拉, 程序员, 系统提示词, 英伟达 (Nvidia), 豆包大模型, 软件2.0 (Software 2.0), 通义千问, 长期记忆
上下文工程又有新词了。AIGC不怎么赚钱,造词的速度还是非常非常快的。大家好,欢迎收听老范讲故事的YouTube频道。
提示词工程已经稍微有点过时了,现在的新词叫上下文工程。提示词工程长什么样,大家还记得吗?就是上来先说你是谁,谁先给大模型定一个位置。比如说你是一个资深翻译,你是个语文老师。然后呢,说我现在想要干一点什么事情了,给我出个题,给我做个翻译,再给他一个简单的例子,说你照这样给我把东西做出来。
光有提示词呢,肯定是不够的。除了刚才我们讲的完整的、结构化的提示词之外,你还是需要很多相关的上下文,才能够让大模型稳定的输出结果。那你说我们继续把提示词写长不就行了吗?我还见过那种直接写出几百字或者是上千字小作文的提示词。这个是不是可以继续往前走呢?不行了。因为你如果继续叫提示词工程呢,会容易引起误解。大家觉得只要不断的把提示词写长,就可以把这事解决掉。但其实除了提示词之外,还有非常非常多的上下文数据需要一起写进去,才能够让大模型稳定的输出我们所预期的、有价值的结果出来。
所以呢,就不能继续叫提示词工程了,一定要起个新词。而且呢,AI时代呢,起新词是非常重要的,因为可以吸引眼球。只有足够吸引眼球的东西,才有发展的前景。所以在这个时候,上下文工程就来了,一个新词诞生了。
More
7 月 02
Luke FanAIGC, Meta的故事 1亿美金签字费, AI Agent, AIGC, AI人才战争, AI团队重组, Anthropic, DeepSeek, Facebook, Kimi, Llama 4失败, Meta, Meta与OpenAI, MiniMax * 其他公司: 谷歌 (Google), OpenAI, XAI, 人力资源 (HR), 人工智能 (AI), 企业文化, 元宇宙 (Metaverse), 创新工厂 (Innovation Works), 华为 (Huawei), 员工挽留, 商业故事, 团队管理, 大语言模型 (LLM), 山姆·奥特曼 (Sam Altman) AI模型: Llama 4, 开源模型, 战略方向, 扎克伯格 (Mark Zuckerberg), 扎克伯格亲自下场, 招聘策略, 推理能力, 文心一言, 模型刷榜, 盛大 (Shanda), 盛大故事, 硅谷文化, 科技巨头挖人, 科技评论, 算力竞争, 职场八卦, 股票期权, 腾讯 (Tencent), 腾讯挖华为HR, 薪酬体系, 行业内幕, 行业分析, 谷歌Gemini, 金山 (Kingsoft), 金山喝酒留人, 闭源模型, 阿里千问 (Qwen)
Meta急了,扎克伯格亲自下场疯狂挖人,重新组建AI团队。
大家好,欢迎收听老范讲故事的YouTube频道。Meta的1亿美金签字费最近成为了一个新梗。签字费什么意思?就是说我去挖人,你只要过来签个字,说我同意上班来了,1亿美金到手。这个又算是创造历史了吧。
现在AI呢,确实是资本最密集,和整个行业都在关注的一个点。所以Meta这样的一家美股七姐妹的公司,突然发现自己落后了,那就一定要赶快出来补救。而补救的方式的话,一亿美金签字费。
Meta呢,在Llama4上栽了一个大跟头,而且摔得非常非常惨。这个产品呢本来是寄以厚望的,因为Llama1、Llama2、Llama3,大家都是觉得非常成功。而且呢,Meta算是建立了一个自己的品牌。甭管是谷歌呀,Anthropic呀,OpenAI,你都是闭源,只有我是开源,而且我是开源圈的领军人物。其他的人只要是愿意用开源模型,必须以Llama为基础去干活去。至少在Llama2的这个阶段呢,它这个目标是实现了。就像当年的iOS跟安卓一样,iOS是闭源的,安卓是我开源,你只要惦记自己做手机,想要一操作系统,你就使我的。
More
Older Entries