11 月 20
Luke Fan AIGC , Google的故事 AI Agent , AI Studio , AI发展趋势 , AI工具调用 , AI编程助手 , Claude 4.5 , Gemini 3 Pro , Generative AI , Google Deepmind , GPT-5.1 , Graph Reasoning , Grok 4.1 , LMArena跑分 , TPU v6 , 人工智能 , 原生多模态 , 合成数据训练 , 多塔MOE , 大模型训练 , 大模型评测 , 投机采样 , 科技前沿 , 谷歌AI , 超强推理 , 过程奖励模型
Gemini 3终于发布了,这一次是真王炸了吧?
大家好,欢迎收听老范讲故事的YouTube频道 。
千呼万唤始出来:Gemini 3的发布背景
2025年11月18日,谷歌Gemini 3 Pro Preview 版本就这么上架了。为什么要用这样的一个词,“就这么上架了呢”?因为第一,它是千呼万唤始出来。大概从10月份开始,大家就开始传说,谷歌要开始上Gemini 3了。传来传去始终也没上来,到11月份说这个月肯定上。我还听说过是11月22号上,还听说过最晚12月份上,大家一直在等待这样的一个产品。
跟它一起传的还有另外一个产品,叫Nano Banana 2 。因为上一次谷歌引起大家关注、引起大家去下载和使用的产品呢,就是Nano Banana 2,这个生图和改图的模型。这一次说Gemini 3跟Nano Banana 2一起来,而且都在进行测试,甚至很多人信誓旦旦说我用到了,我已经看到了。谷歌从Nano Banana一开始,就采用了一个很奇葩的玩法,就是在大模型发布之前,先给它们起个名字,隐姓埋名,跑到其他的这种测试平台上去测试去。大家觉得这个名字很奇怪,不知道是谁,测完了以后发现巨好,这是不是Gemini 3?那个生图模型是不是Nano Banana 2?大家都在猜这种事情。
More
2 月 12
Luke Fan AIGC AI产品封闭市场 , AI人才密度 , AI企业收购 , AI创业环境 , AI大模型竞争 , AI市场单一化 , AI市场对比 , AI市场规模 , AI开源闭源之争 , AI技术输出 , AI效率榜 , AI模型部署 , AI法律法规 , AI生态系统 , AI算力中心 , AI语言适配 , AI跨国竞争 , AI隐私保护 , ChatGPT竞争 , Claude AI , Deepmind团队 , DeepSeek , Gemini模型 , Google Deepmind , GPU算力 , H100显卡 , H200显卡 , iOS效率榜第一 , Le Chat , Mistral公司 , MoE模型 , OpenAI封锁 , 中国六小虎AI , 中欧AI技术差距 , 中法AI对比 , 中美AI竞争 , 全球AI发展 , 开源AI模型 , 微软AI投资 , 文心一言 , 欧洲AI人才流失 , 欧洲AI政策 , 欧洲AI计划 , 欧洲人工智能 , 法国AI , 法国AI创新 , 法国AI创新瓶颈 , 法国AI发展 , 法国AI团队 , 法国AI未来 , 法国AI短板 , 法国AI算力 , 法国云计算 , 法国人工智能融资 , 法国创新监管 , 法国政府AI扶植 , 法国版星际之门计划 , 法国科技创业 , 法国科技政策 , 法语AI模型 , 英伟达AI投资 , 英伟达显卡销售 , 豆包AI , 通义千问
法国AI聊天工具Le Chat在法国登到了排行榜第一名。法国AI是不是有戏了?大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲这个叫Le Chat。我在讲这个故事之前,专门去向我学过法语的太太请教过了,说这个东西应该那么去念啊,最后这个t是不发音的。这个产品到底怎么样?咱们先说一说它的公司呢,其实原来我们介绍过啊,叫Mistral公司,应该算是整个欧洲拿到投资最多的一家AI公司了。
然后他们的创始人呢,原来是Deepmind的员工。他在法国受的教育,到Deepmind混了两年以后,回到法国去创业。他们大量的创始团队都是从Deepmind回来的。Deepmind被Google收购了以后,他大量的团队依然是在英国上班。所以,这帮人有可能是在美国混了一段时间,当然也有可能是在英国混了一段时间,现在在法国创业。然后他们拿到了像微软啊,英伟达等很多公司的这种投资。但是法国还有一个很有钱的人,特别喜欢投资AI啊,谁啊?就是那个LV的那个老板,也会去投资很多的AI公司。
那么这个公司呢,他们出的很多的模型,特别是开源模型,在AI圈子里头还是有很大响度的。比如说Mistral的7B啊,特别早就出来,很多人会去使用。他们出的很多这种MoE模型,也是很流行的。最早被大家所接受的MoE模型就是他们家的,比如说8X7B啊,或者是8X22B这些啊。MoE模型啊,很广泛的被使用。所以这一次呢,去问他们的创始人,说你看DeepSeek怎么样?他说哎呀,Deepseek用到的很多模型组织方式是原来我们开源出来的啊。当然最早的MoE不是他们发明的,但是Mistral在MoE整个的演化过程中还是做了非常多的贡献的。
More