OpenAI 突然开源!GPT-OSS 深度评测,中美 AI 竞争升级,谁能笑到最后?AI 界的“田忌赛马”!详解中国“全家桶”式开源,如何对决 OpenAI 的精准出牌?
8 月 08
AIGC, OpenSource 128K上下文, AI伦理, AI开源策略, AI监管与合规, COT思维链, DeepSeek(深度求索), Gemma, GLM, GPT-OSS, Grok(xAI), Kimi, LLaMA, MacBook, Meta, Minimax, MOE混合专家模型, MXFP4量化技术, Ollama, OpenAI, Phi-4, YouTube, 中美AI竞争, 中美科技博弈, 人工智能(AI), 千问(Qwen), 原生训练, 商业模式, 大语言模型(LLM), 应开全开, 开小闭大, 开源, 微调(Fine-tuning), 微软(Microsoft), 推理模型, 数据安全, 本地部署, 模型性能, 模型评测, 田忌赛马, 科技自媒体, 科技评论, 老范讲故事, 谷歌(Google), 马斯克 OpenAI 突然开源!GPT-OSS 深度评测,中美 AI 竞争升级,谁能笑到最后?AI 界的“田忌赛马”!详解中国“全家桶”式开源,如何对决 OpenAI 的精准出牌?已关闭评论
OpenAI再次开源,中美AI竞争加剧,这一次体现在了不同的开源策略上。
大家好,欢迎收听老范讲故事的YouTube频道。
OpenAI再次开源,这一次发布的版本叫GPT-OSS (Open Source System),8月5号突然上线了。这一次又不是GPT-5,我们从7月份就开始等GPT-5,现在已经等得大家开始胡思乱想了。很多人猜,说为什么出不来。现在最新的说法是48小时之内出来,等等看吧。
这一次呢,开出来的是GPT-OSS,是一个开源模型,20B和120B两种参数。它呢,是一个MOE模型,就是混合专家模型。其实在GPT-4的时候呢,大家就已经猜测它开始使用混合专家模型了,只是呢它不开源,大家只能猜。现在开出来了MOE推理模型,是有COT的思维链,是直接给大家展示出来的。而且呢,是一个文本模型,没有多模态的东西。上下文比较长,128K的上下文,要比国内的一些开源模型还要再长一些。因为现在没办法,你要使用工具、使用MCP,没有足够长的上下文,你是跑不起来的。所以呢,这一次的GPT-OSS说,我们很擅长使用工具,有的时候有点太擅长了。因为我测试的时候,有的时候工具调用次数非常多,直接就把自己的上下文填满了,这种情况也是不少的。
More