8 月 18
Luke FanAIGC, 华为很厉害, 英伟达,NVIDIA,黄教主,GPU AI Agent, AI芯片, AI训练, AMD, Anthropic, B100, Claude 4, CUDA, DeepSeek, Deepseek R2, Function Call, Gemini, Google, GPT-5, Grok 4, H100, H20, H800, Kimi, Llama 4, Meta, NVIDIA, OpenAI, TPU, XAI, 中美科技战, 人工智能, 传闻, 千问, 升腾910C, 华为, 华为升腾, 国产替代, 国产芯片, 大模型, 大模型训练, 字节跳动, 开源, 技术瓶颈, 推理, 散热问题, 浸没式液冷, 液冷, 深度求索, 百度, 算力, 腾讯, 芯片战争, 英伟达, 辟谣, 金融时报报道, 难产
8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。
虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。
国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。
More
8 月 15
Luke FanAIGC AGI (通用人工智能), Cleo Abram, GPT-5, OpenAI, 凸显AI人格化趋势, 山姆·奥特曼 (Sam Altman), 应用, 怀念其“性格”, 数据, 科技评论, 算力, 算法, 老范讲故事, 采访解读
在GPT-5发布之后,山姆·奥特曼在采访中都说了点什么呢?
大家好,欢迎收听“老范讲故事”的YouTube频道。
山姆·奥特曼这个采访呢,是8月8号做的,应该是在8月9号咱们这边能看到的。那为什么隔了这么久才去说这个事呢?这几天玩GPT-5玩得还是蛮开心的,所以呢就耽误了。今天跟大家讲一讲,山姆·奥特曼接受YouTube大V采访的时候,都说了点什么。
这个YouTube大V呢,叫Cleo Amber,这真的是大V,642万订阅。像我这个刚刚突破7万订阅的人,好好膜拜一下。这位大V呢,是专注于科技与科学领域的乐观解读。一定要注意,有悲观解读的,就是上来“世界要毁灭了”什么的,这位是专门讲乐观解读的。
整个的访谈呢,是一个小时零5分钟,6天的播放量260万次,远超过这位大V平时的视频播放量。他平时视频大概有210万次播放,其实也是非常高的了,因为他640万的订阅,每一次的视频如果有30%,也就是200多万的播放的话,那是非常非常高的。
More
8 月 12
Luke FanAIGC AGI, AI人格, AI创业, AI生态, AI竞争, Anthropic Claude, API价格, ARC-AGI测试, Gemini 2.5 Pro, GPT-5, Grok-4, Meta, OpenAI, Plus用户, Pro用户, Sam Altman, Thinking模式, XAI, 上下文窗口, 中国AI公司, 人工智能, 代码生成, 价格战, 免费用户, 划时代革命, 各安天命, 哀鸿一片, 商业模式, 多模态, 大语言模型, 开发者, 微软, 抄后路, 投名状, 挤牙膏, 用户体验, 科技评论, 统一模型, 老范讲故事, 行业分析, 谷歌, 跑分对比, 阶级固化, 降低幻觉, 马斯克
大家好,
欢迎收听老范讲故事的YouTube频道。
今天咱们来讲一讲GPT-5发布了,到底是又一次划时代的革命,还是开始挤牙膏了呢?
8月8号凌晨开的发布会,我呢看了一眼就去睡觉了,实在是没有功夫把它都看完。北京时间凌晨1点开始发,我今天看了一下回放,大概是一个小时十几分钟吧,但是我并没有特别耐心地把它们都看完。
GPT-5到底有什么不一样的呢?
首先,这一次的发布会跟OpenAI以前的发布会,有一些巨大的差异。第一点大家有没有注意到,就是这次发布以后呢,没有出现服务器拥挤宕机的情况。以前甭管是Sora呀,还是GPT-4o这些产品发布的时候,紧随而来的都是OpenAI的服务器拥堵宕机。这次没有,第一时间就可用,免费版也可以使用,速度还挺快的。我自己反而感觉速度还可以,应该呢是进行了一些实时的算力分配,简单的问题就没必要消耗那么多的算力。原来呢,大家都是要尽可能用最大的模型,你哪怕问一个“你好,今天天气不错”,他也得把那个最大的模型跑起来。现在的话应该就不需要干这个事了,他发现你去问“你好,你是谁,你到底是哪个版本”的时候,他可能做一些很简单的回复,消耗的算力就比较小。这是第一个比较大的差异。
More
8 月 08
Luke FanAIGC, OpenSource 128K上下文, AI伦理, AI开源策略, AI监管与合规, COT思维链, DeepSeek(深度求索), Gemma, GLM, GPT-OSS, Grok(xAI), Kimi, LLaMA, MacBook, Meta, Minimax, MOE混合专家模型, MXFP4量化技术, Ollama, OpenAI, Phi-4, YouTube, 中美AI竞争, 中美科技博弈, 人工智能(AI), 千问(Qwen), 原生训练, 商业模式, 大语言模型(LLM), 应开全开, 开小闭大, 开源, 微调(Fine-tuning), 微软(Microsoft), 推理模型, 数据安全, 本地部署, 模型性能, 模型评测, 田忌赛马, 科技自媒体, 科技评论, 老范讲故事, 谷歌(Google), 马斯克
OpenAI再次开源,中美AI竞争加剧,这一次体现在了不同的开源策略上。
大家好,欢迎收听老范讲故事的YouTube频道。
OpenAI再次开源,这一次发布的版本叫GPT-OSS (Open Source System),8月5号突然上线了。这一次又不是GPT-5,我们从7月份就开始等GPT-5,现在已经等得大家开始胡思乱想了。很多人猜,说为什么出不来。现在最新的说法是48小时之内出来,等等看吧。
这一次呢,开出来的是GPT-OSS,是一个开源模型,20B和120B两种参数。它呢,是一个MOE模型,就是混合专家模型。其实在GPT-4的时候呢,大家就已经猜测它开始使用混合专家模型了,只是呢它不开源,大家只能猜。现在开出来了MOE推理模型,是有COT的思维链,是直接给大家展示出来的。而且呢,是一个文本模型,没有多模态的东西。上下文比较长,128K的上下文,要比国内的一些开源模型还要再长一些。因为现在没办法,你要使用工具、使用MCP,没有足够长的上下文,你是跑不起来的。所以呢,这一次的GPT-OSS说,我们很擅长使用工具,有的时候有点太擅长了。因为我测试的时候,有的时候工具调用次数非常多,直接就把自己的上下文填满了,这种情况也是不少的。
More
7 月 20
Luke FanAIGC AGI, AI Agent, AI创业, AI行业分析, API, ChatGPT Agent, Deep Research, Manus, OpenAI, OpenAI发布会, Operator, PPT生成, Sam Altman, SDK, TOKEN成本, YouTube频道, 二次验证, 产品评测, 人工智能, 人工智能代理, 任务打断, 创业公司危机, 商业模式, 技术前沿, 技术局限, 数据分析, 未来科技, 模型即应用, 沙盒, 浏览器模拟, 演示翻车, 生产力工具, 用户体验, 科技评论, 竞品分析, 老范讲故事, 自动化任务, 自动化流程, 虚拟机, 跨设备同步, 连接器, 长链路任务
ChatGPT Agent来了。
Manus到底是该哭还是该笑呢?
大家好,欢迎收听老范讲故事的YouTube频道。
ChatGPT重磅发布了他的Agent。怎么个重磅法?山姆·奥特曼亲自坐台。现在很多ChatGPT自己产品的发布,山姆·奥特曼都不在前台坐着,这次是亲自坐台。而且旁边坐了四位主讲,很多时候发布会就是俩人或者仨人,这次是山姆·奥特曼坐在这,旁边坐了四个人。而且呢,足足讲了25分钟。
很多人就想起Manus来了,好像有些测试还不如Manus。因为他现场有翻车的,大老板在旁边坐着,你测试翻车的话还是压力挺大的。在这个时候就有人说了,GPT也就这样,你们现在还觉得Manus做的不好吗?就有一些讨论在发生了。
More
7 月 15
Luke FanAIGC, Musk传奇 20万H100显卡, 256K上下文, AI大模型, AI安全中心, AI融资, AI进程改变, API调用, Claude, DeepSeek, Elon Musk, Gemini, Grok Heavy, Grok2, GROK3, GROK4, LLaMA, OpenAI, Oracle云, Scale AI, XAI, 三体小说, 中美AI差距, 人类终极测试, 企业私有部署, 众包题库, 动态任务池, 华为盘古, 南京大屠杀, 南非白人种族屠杀, 多智能体合作, 多模态AI, 川建国, 工具支持, 市场占有率, 开源承诺, 强化学习, 意识形态投毒, 技术爆炸, 推理能力, 日本烟花事件, 昇腾芯片, 模型蒸馏, 模型迭代, 理工男模型, 电力消耗, 科研提速, 算力竞争, 编程工具, 视频生成, 越狱提示词, 过拟合预防, 预训练模型, 马斯克发布会, 黄仁勋访华, 黄色小说生成, 黑暗森林法则, 黑色幽默
史上最聪明的AI大模型GROK4诞生了。马斯克亲自坐镇开发布会。视频发布会呢,并不是特别的顺畅。第一个呢,是他晚了一个小时,也没说为什么。反正马斯克的直播经常会晚。然后呢,太多的东西需要集中发布,上下衔接的呢比较仓促一点。
最早期很多的互联网公司开发布会也是这样的,两三个小时七差咔嚓发一大堆东西。后来OpenAI这些公司习惯了在网上开直播以后呢,就慢慢把这风格改了。改成什么呢?就是每次发一个功能,发个十分钟二十分钟就完事了。然后呢,不停的发,每个月发每个月发。Xai呢,现在还没有彻底学会这件事情,还是一股脑给大家扔了一大堆东西出来。
我们以前在面对创业者的时候,每次都会苦口婆心的去做一种劝告。大家可能不知道会劝什么。作为投资人来说,我们每次看到任何一个创业者,都会上去劝一件事,叫不要憋大招。你一次要惦记着做一个大的东西,就很容易失败。你应该是做一些小的东西,一点一点放出来。OXAI现在还是憋了一个大招。当然了,XAI后面呢,也会每个月发布一个新的工具出来,它也慢慢的向这样的一个方向去前进。
More
7 月 11
Luke FanAIGC AI Agent, AI内卷, AI创业公司, AI应用落地, AI监管政策, Anthropic, Benchmark投资, ChatGPT, Claude, Figure AI, HEYGEN, Kimi, Manus, Manus跑路, OpenAI, Token消耗, 中国AI产业, 中美科技战, 产品体验, 人工智能, 付费转化率, 免费模式, 创业故事, 周鸿祎, 商业模式探讨, 团队裁员, 地缘政治, 大厂竞争, 大语言模型 (LLM), 字节跳动Coze, 技术壁垒, 收费策略, 新加坡总部, 智谱AI, 泛AI Agent, 用户增长, 百度, 科技公司出海, 科技新闻, 科技评论, 稚晖君, 算力, 美元资本, 美国投资限制, 老范讲故事, 融资, 行业观察, 资本运作, 通义千问, 马斯克
曾经一码难求的Manus宣布跑路新加坡了。
大家好,欢迎收听老范讲故事的YouTube频道。中国AI产业在7月9号呢,应该经历了资本侵袭之日。为什么这么讲?第一个,稚晖君创建的智源科技跑去买壳上市去了,机器人还没造出来呢,先去收购了一个上市公司60%多的股份。这个要干什么,大家心里都明白。
另外一个就是Manus,算是在Deepseek之后,又炒起了中国AI热潮的一个品牌。他们当时是做泛AI agent,就是说可以解决各种各样问题的AI agent,突然宣布在国内裁员,直接关闭,然后搬迁到新加坡。事情没做多少,这个资本的吃相有点太难看了。
Manus到底怎么个跑法呢?原来团队也不大,120人的团队,留下三四十个核心技术人员迁往新加坡,剩下的原地解散了。给2N或者是n加3,估计有些人来的时间实在是太短给n加3,来的时间稍微长一点的可以给2N。反正手里有钱嘛,刚拿了7,500万美金的融资,也不在乎这一点,直接遣散了就完事了。
More
7 月 08
Luke FanAIGC AI Agent, AIGC, AI产业, AI幻觉, AI应用开发, AI趋势, Claude 3, DeepSeek, Few-shot (少样例提示), Gemini 2.5 Pro, GPT-4o, Grok, JSON输出, LangChain, LLaMA, LLMOS (大模型操作系统), MISTRAL, OpenAI, RAG (检索增强生成), Shopify, Simon Wilkinson, 上下文工程 (Context Engineering), 上下文窗口 (Context Window), 上下文隔离, 信息压缩, 函数调用 (Function Calling), 大语言模型 (LLM), 安德烈·卡帕西 (Andrej Karpathy), 工具调用 (Tool Calling), 技术解读, 提示词工程 (Prompt Engineering), 模型稳定性, 特斯拉, 程序员, 系统提示词, 英伟达 (Nvidia), 豆包大模型, 软件2.0 (Software 2.0), 通义千问, 长期记忆
上下文工程又有新词了。AIGC不怎么赚钱,造词的速度还是非常非常快的。大家好,欢迎收听老范讲故事的YouTube频道。
提示词工程已经稍微有点过时了,现在的新词叫上下文工程。提示词工程长什么样,大家还记得吗?就是上来先说你是谁,谁先给大模型定一个位置。比如说你是一个资深翻译,你是个语文老师。然后呢,说我现在想要干一点什么事情了,给我出个题,给我做个翻译,再给他一个简单的例子,说你照这样给我把东西做出来。
光有提示词呢,肯定是不够的。除了刚才我们讲的完整的、结构化的提示词之外,你还是需要很多相关的上下文,才能够让大模型稳定的输出结果。那你说我们继续把提示词写长不就行了吗?我还见过那种直接写出几百字或者是上千字小作文的提示词。这个是不是可以继续往前走呢?不行了。因为你如果继续叫提示词工程呢,会容易引起误解。大家觉得只要不断的把提示词写长,就可以把这事解决掉。但其实除了提示词之外,还有非常非常多的上下文数据需要一起写进去,才能够让大模型稳定的输出我们所预期的、有价值的结果出来。
所以呢,就不能继续叫提示词工程了,一定要起个新词。而且呢,AI时代呢,起新词是非常重要的,因为可以吸引眼球。只有足够吸引眼球的东西,才有发展的前景。所以在这个时候,上下文工程就来了,一个新词诞生了。
More
7 月 07
Luke FanAIGC, 华为很厉害 AI伦理, AI大模型, AI抄袭, Apache 2.0, GitHub事件, honest AGI, Hugging Face, Llama 3.1, LLaMA-fingerprint, LLM, Meta, OpenAI, POWERED by盘古, PyTorch, 人工智能, 企业公关危机, 华为, 品牌形象, 增量训练, 大模型套壳, 大模型抄袭, 大模型指纹算法, 大语言模型, 字节跳动, 开源, 开源争议, 开源协议, 开源文化, 归属声明, 抄袭指控, 昇腾芯片, 模型相似度, 欧盟禁用条款, 民族主义情绪, 注意力机制, 混合专家模型(MOE), 版权声明, 瓜田李下, 盘古大模型, 盘古开源协议, 科技伦理, 科技公司纠纷, 科技评论, 老范讲故事, 自主研发, 舆论战, 英伟达芯片, 观点分析, 许可证, 豆包, 辟谣, 通义千问, 遥遥领先, 闭源, 阿里巴巴
华为开源了盘古大模型,被指抄袭。华为到底冤不冤呢?
大家好,欢迎收听老范讲故事的YouTube频道。华为开源了他的盘古大模型,它的模型呢,反正依然是山海经风格的起名。原来呢,没有开源,都是说我们内部开发内部使用,或者说我们专门供政府和大企业来使用。但是现在发现开源这条路不错,那我也开源吧。结果开源了以后就出事了。
它是6月30号在GitHub上就直接开源了,号称呢是在升腾芯片上训练出来的大模型。以前呢,我们的大模型大多是在英伟达芯片上训练,但是呢可以在升腾的芯片上去做推理。现在说,我直接在升腾芯片上做训练,也算是一种小的突破吧。
他呢,其实发了两个模型:一个是72B的MOE的模型,就是混合专家模型;然后呢,有一个70B的稠密模型。做呢做完了,但是准备开源还需要准备一段时间。开源这件事,不是说你做完了,把它扔出来就完了,还是有很大的工作量需要干的。比如说你要去写开源手册、许可证,这个还不是那么容易,还在做。
More
7 月 02
Luke FanAIGC, Meta的故事 1亿美金签字费, AI Agent, AIGC, AI人才战争, AI团队重组, Anthropic, DeepSeek, Facebook, Kimi, Llama 4失败, Meta, Meta与OpenAI, MiniMax * 其他公司: 谷歌 (Google), OpenAI, XAI, 人力资源 (HR), 人工智能 (AI), 企业文化, 元宇宙 (Metaverse), 创新工厂 (Innovation Works), 华为 (Huawei), 员工挽留, 商业故事, 团队管理, 大语言模型 (LLM), 山姆·奥特曼 (Sam Altman) AI模型: Llama 4, 开源模型, 战略方向, 扎克伯格 (Mark Zuckerberg), 扎克伯格亲自下场, 招聘策略, 推理能力, 文心一言, 模型刷榜, 盛大 (Shanda), 盛大故事, 硅谷文化, 科技巨头挖人, 科技评论, 算力竞争, 职场八卦, 股票期权, 腾讯 (Tencent), 腾讯挖华为HR, 薪酬体系, 行业内幕, 行业分析, 谷歌Gemini, 金山 (Kingsoft), 金山喝酒留人, 闭源模型, 阿里千问 (Qwen)
Meta急了,扎克伯格亲自下场疯狂挖人,重新组建AI团队。
大家好,欢迎收听老范讲故事的YouTube频道。Meta的1亿美金签字费最近成为了一个新梗。签字费什么意思?就是说我去挖人,你只要过来签个字,说我同意上班来了,1亿美金到手。这个又算是创造历史了吧。
现在AI呢,确实是资本最密集,和整个行业都在关注的一个点。所以Meta这样的一家美股七姐妹的公司,突然发现自己落后了,那就一定要赶快出来补救。而补救的方式的话,一亿美金签字费。
Meta呢,在Llama4上栽了一个大跟头,而且摔得非常非常惨。这个产品呢本来是寄以厚望的,因为Llama1、Llama2、Llama3,大家都是觉得非常成功。而且呢,Meta算是建立了一个自己的品牌。甭管是谷歌呀,Anthropic呀,OpenAI,你都是闭源,只有我是开源,而且我是开源圈的领军人物。其他的人只要是愿意用开源模型,必须以Llama为基础去干活去。至少在Llama2的这个阶段呢,它这个目标是实现了。就像当年的iOS跟安卓一样,iOS是闭源的,安卓是我开源,你只要惦记自己做手机,想要一操作系统,你就使我的。
More
Older Entries