4 月 07
Luke FanAIGC 1000万Token上下文, 400B, AI Agent, AI应用场景, AI新闻, AI未来发展, AI模型发布, AI竞赛, AI算力, Claude 3.7, DeepSeek, FP8精度, Function Call, Gemini 2.5 Pro, GPT-4o, Grok (XAI), H100 GPU, INT4量化, Llama 3, Llama 4, Llama 4 Behemoth, Llama 4 MARVELIC, Llama 4 Scout, Llama 4发布反响平淡原因, LLM, Meta AI, Meta战略, Mixture of Experts, MOE架构, 专家模块, 中文能力提升, 人工智能, 全模态AI进展, 千问 (Qwen), 卡估值, 多模态输入, 大语言模型, 字节AI, 小模型竞争, 开源LLM对比, 开源模型, 开源模型内卷, 开源社区, 推理速度, 文本输出, 模型微调, 模型性能比较, 模型测评, 模型训练, 活跃参数, 流量入口, 知识蒸馏, 硬件要求, 端到端模型, 腾讯AI, 谷歌AI, 超级APP趋势, 长上下文, 阿里AI
Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?
大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。
Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。
现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。
More
2 月 18
Luke FanAIGC, DeepSeek大模型 671B开源模型, AI免费服务, AI发展趋势, AI商业模式创新, AI垄断, AI安全性, AI对话模型, AI幻觉问题, AI广告收入, AI开源, AI推理模型, AI未来发展, AI模型对齐, AI流量焦虑, AI用户忠诚度, AI盈利困局, AI系统集成, AI行业竞争, AI语音功能, AI黑箱子, B端市场, Claude 4发布时间, Claude4, C端市场, DeepSeek, DeepSeek API, DeepSeek R1一体机, DeepSeek安全性, DeepSeek对OpenAI影响, Gemini 2.0, Google AI Studio, GPT-4.5, GPT-5, GPT-5功能, Llama4, OpenAI, OpenAI盈利, OpenAI订阅, ToB市场, ToB部署, ToC市场, ToC用户体验, 多模态生成, 大模型, 大模型商业模式, 大模型统一接口, 大模型计算成本, 山姆·奥特曼, 开放源代码, 开源大模型, 推广成本, 推理成本, 推理模型O系, 文心一言4.0, 文心一言4.5, 文心一言Turbo, 文心一言免费, 李彦宏, 百度AI, 百度搜索广告, 百度文心一言, 谷歌AI策略, 谷歌Gemini
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲DeepSeek。这条鲶鱼搅浑了水,GPT5要来了,百度也要免费开源了,到底是一个什么样的情况?大模型这个赛道未来会怎么去发展?
DeepSeek呢,算是彻底改变了游戏规则。OpenAI给整个行业挖的坑,到现在呢,还有一些公司没查出来呢。什么坑?就是客户端这个订阅20美金一个月这个坑。这个其实是一个非常失败的商业模式。谷歌到现在还在往外爬,因为谷歌他其实自己不太想爬出来。为什么?因为他一旦爬出来以后的话,谷歌搜索的广告收入就没了,只能在那里头装聋作哑了。Perplexity到现在也还在思考,到底是不是要爬出来。
大家有没有想过一个问题?开源模型,因为DeepSeek是满血版671B的开源模型,它对于OpenAI的伤害,到底是ToB的伤害大,还是ToC的伤害大?这是一个大家值得去思考的事情。虽然现在DeepSeek在很多的C端有非常大的影响力,就是很多的个人去下载这个东西去用去,但其实真正的开源模型影响最大的是B端。我这是一个自己的公司,我是一个政府项目,或者是一个什么样的商业相关的事情,我要去使用大模型的时候,一定是会优先去选择这种完全可控的开源模型,而不是说我去用人家的闭源的,买人家API。因为你一旦是有开源模型的话,你就可以选择完全私有部署,我自己买台服务器往里装就完了。
More
10 月 21
Luke FanAIGC, 芯片的故事 AIGC行业, AI企业战略, AI企业生存, AI企业竞争, AI发展趋势, AI商业价值, AI商业化, AI大模型, AI工具, AI市场分析, AI市场前景, AI市场变化, AI市场策略, AI市场需求, AI应用, AI应用方向, AI技术创新, AI技术趋势, AI投资, AI未来发展, AI桌面应用, AI泡沫, AI芯片, AI行业分析, AI行业动态, AI行业崩盘, AI行业挑战, AI行业未来, AI行业机遇, AI行业洗牌, AI行业洞察, AI行业现状, AI行业痛点, AI行业观察, AI行业转型, AI裁员, Anthropic, GPU租赁, H100租金, Kimi, OpenAI, ToB, ToC, 个人用户, 云计算, 光刻机, 创投, 台积电, 商业模式, 商业模式创新, 商业用户, 大企业裁员, 大模型同质化, 大模型训练, 字节跳动, 存储市场, 市场洗牌, 市场预期, 开源模型, 手机需求, 投资, 投资者心理, 泡沫破裂, 电脑需求, 盈利, 算力卡, 算力需求, 股市震荡, 自由职业, 自由职业者, 芯片市场, 英伟达, 行业迷茫, 行业重组, 行业预测, 订单减少, 谷歌, 财报泄露, 郁金香时刻, 阿斯麦, 阿里
大家好,这里是老范讲故事的YouTube频道。我们现在开始讲第一个故事:阿斯麦崩盘。
是不是AI大模型要迎来郁金香时刻?什么是郁金香时刻?就是我们认为有一个大的崩盘即将到来的时候,我们管它叫郁金香时刻。因为当年荷兰人去卖郁金香的时候,就遇到了郁金香崩盘这样的事情。后面每一次大的这种泡沫破裂的时候,你可以认为它是一个郁金香时刻。
那么阿斯麦是怎么崩盘的呢?算是意料之外,情理之中。为什么叫意料之外呢?因为由于某个技术原因或者某一个技术故障,导致了应该是晚一天发布的财报提前一天泄露了。但是呢,这个泄露出来的财报并不是说虚假的或者说有错误的,就是正确的财报,只是他看到的时间稍微早了一点,或者是大家意料之外的这个时间看到了。早看到一天、晚看到一天,里面的数据都不会发生任何变化。
More