8 月 08
Luke Fan AIGC , OpenSource 128K上下文 , AI伦理 , AI开源策略 , AI监管与合规 , COT思维链 , DeepSeek(深度求索) , Gemma , GLM , GPT-OSS , Grok(xAI) , Kimi , LLaMA , MacBook , Meta , Minimax , MOE混合专家模型 , MXFP4量化技术 , Ollama , OpenAI , Phi-4 , YouTube , 中美AI竞争 , 中美科技博弈 , 人工智能(AI) , 千问(Qwen) , 原生训练 , 商业模式 , 大语言模型(LLM) , 应开全开 , 开小闭大 , 开源 , 微调(Fine-tuning) , 微软(Microsoft) , 推理模型 , 数据安全 , 本地部署 , 模型性能 , 模型评测 , 田忌赛马 , 科技自媒体 , 科技评论 , 老范讲故事 , 谷歌(Google) , 马斯克
OpenAI再次开源,中美AI竞争加剧,这一次体现在了不同的开源策略上。
大家好,欢迎收听老范讲故事的YouTube频道 。
OpenAI再次开源,这一次发布的版本叫GPT-OSS (Open Source System),8月5号突然上线了。这一次又不是GPT-5,我们从7月份就开始等GPT-5,现在已经等得大家开始胡思乱想了。很多人猜,说为什么出不来。现在最新的说法是48小时之内出来,等等看吧。
这一次呢,开出来的是GPT-OSS,是一个开源模型,20B和120B两种参数。它呢,是一个MOE模型,就是混合专家模型。其实在GPT-4的时候呢,大家就已经猜测它开始使用混合专家模型了,只是呢它不开源,大家只能猜。现在开出来了MOE推理模型,是有COT的思维链,是直接给大家展示出来的。而且呢,是一个文本模型,没有多模态的东西。上下文比较长,128K的上下文,要比国内的一些开源模型还要再长一些。因为现在没办法,你要使用工具、使用MCP,没有足够长的上下文,你是跑不起来的。所以呢,这一次的GPT-OSS说,我们很擅长使用工具,有的时候有点太擅长了。因为我测试的时候,有的时候工具调用次数非常多,直接就把自己的上下文填满了,这种情况也是不少的。
More
5 月 04
Luke Fan AIGC Agent能力 , AI agent开发 , DeepSeek R1 对比 , Gemini 2.5 Pro 对比 , GitHub 开源 , GPT-4o 对比 , Grok 对比 , Llama 4 对比 , MCP协议支持 , MOE模型 (混合专家模型) , Ollama , Open Router , PC端应用 , Qwen3 , XAI 对比 , 上下文窗口 (128K/256K) , 专业数据 , 云部署 , 人工智能 (AI) , 代码生成 , 优缺点 , 全系列模型 (0.6B-235B) , 划时代的胜利 vs 翻车 , 千问3 , 原生数据 , 参数效率 , 合成数据 , 后训练 , 商业应用 , 多场景适配 , 多语言支持 (119种) , 大语言模型 (LLM) , 工具调用 , 幻觉问题 , 开源模型 , 强化学习 (RLHF) , 微调 (Fine-tuning) , 性能分析 , 性能评测 , 技术创新 , 指令遵循 , 数学推理 , 数据来源 , 本地部署 , 模型使用 , 模型发布 , 模型对齐 , 混合推理架构 , 用户体验 , 田忌赛马策略 , 真实感受 , 硅基流动 , 移动端应用 , 稠密模型 , 评测数据 , 逻辑推理 , 长思维链 , 阿里云百炼 , 阿里大模型 , 预训练 (36T数据)
Qwen3发布了。这到底是划时代的胜利,还是翻车了呢?
大家好,欢迎收听老范讲故事的YouTube频道。Qwen3真的是千呼万唤始出来。前面好几周就已经不断有传言说Qwen3要发布,要多么多么强大。突然发布之后,当然也肯定是伴随着一大堆的评测数据了。官方评测数据呢,永远是我超越了谁、超越了谁。但是很多评测的人呢,觉得好像差那么一点点意思,没有达到预期。所以今天我们来讨论一下,这到底是又一次划时代的胜利,还是翻车。
Qwen3呢是凌晨发布的,4月29日凌晨上线,在Github上全面开放。我呢已经开始用上了。使用的方法有几种:
第一种是本地部署。我是MacBook Pro,M2 Max的芯片,32G内存。其他的不重要,你到底有多少硬盘,这个事没有那么重要。本地使用OlAmA部署,我使用了8B、32B和30B-A3B。最后这个是什么意思?最后是一个MOE的模型,它是30B-A3B,就是说它每一次干活的时候激活3B,也就是30亿参数。它是这样的一个标注。就这三个版本的模型,在我本机都可以跑,速度呢都是还可以接受。
More
7 月 23
范, 路 AIGC 100亿参数 , 10亿参数 , 70亿参数 , AI Agent , AI模型策略 , Anthropic Cloud H3 , API代理 , API服务 , API调用 , GPT-3.5 , GPT-4o , GPT-4o MINI , OpenAI , Plus用户 , Plus订阅计划 , 个人服务器 , 中国市场 , 云端模型 , 产品发布 , 付费频道 , 价格便宜 , 价格策略 , 低价模型 , 免费用户 , 函数调用 , 分岔趋势 , 功能集成 , 参数未公开 , 台式机模型 , 合作伙伴 , 商业模型 , 商业策略 , 大模型市场 , 大模型替代 , 封禁中国IP , 小模型 , 小模型效能 , 工作流 , 工作站级别 , 市场占有率 , 市场反馈 , 市场竞争 , 市场趋势 , 市场需求 , 应用开发 , 开源模型 , 微型模型 , 技术优势 , 技术创新 , 技术挑战 , 技术程度 , 技术进步 , 技术领先 , 数据调用 , 未来计划 , 本地部署 , 模型升级 , 模型性能 , 浏览器插件 , 用户体验 , 用户分叉 , 用户反馈 , 用户吸引力 , 用户满意度 , 用户粘度 , 用户需求 , 田忌赛马 , 移动端模型 , 竞争对手 , 竞争策略 , 端侧使用 , 端侧竞争 , 经济考量 , 经济高效 , 视觉多模态识别 , 训练成本 , 谷歌Gemini Flash , 输入100万TOKEN , 输出100万TOKEN , 高性能模型 , 高效模型
OpenAI在封禁中国IP访问其API之后,第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型,这究竟是要卷死谁啊?中国团队是不是有机会弯道超车呢?大家好,这里是老范讲故事YouTube频道。Open AI第一次发布微型模型,以前的Open AI都是一个比一个大,因为原来人家讲的叫Scaring Law,就是这种伸缩法则,只要是变大,我一定会变强。而且,也嘲笑那些小模型说你们肯定不行啊,一定是大的好使。我自己原来也是很喜欢使用大模型,有大的不识小的,这是我原来挑选模型时候的基本原则。但是现在,Open AI开始卷小模型了。
Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。
那么,这样的一个鼓励越大越好的公司,原来更多的人力肯定是去研究更大的模型去了。现在说不,我要上一个小的,而且这种小模型呢,跟一般的小模型还有区别。区别在于它可以支持Function Call,可以支持视觉多模态的识别。那么,这是GPT4O MINI比其他的普通小模型所独有的特点。
More