8 月 12
Luke Fan AIGC AGI , AI人格 , AI创业 , AI生态 , AI竞争 , Anthropic Claude , API价格 , ARC-AGI测试 , Gemini 2.5 Pro , GPT-5 , Grok-4 , Meta , OpenAI , Plus用户 , Pro用户 , Sam Altman , Thinking模式 , XAI , 上下文窗口 , 中国AI公司 , 人工智能 , 代码生成 , 价格战 , 免费用户 , 划时代革命 , 各安天命 , 哀鸿一片 , 商业模式 , 多模态 , 大语言模型 , 开发者 , 微软 , 抄后路 , 投名状 , 挤牙膏 , 用户体验 , 科技评论 , 统一模型 , 老范讲故事 , 行业分析 , 谷歌 , 跑分对比 , 阶级固化 , 降低幻觉 , 马斯克
VIDEO
大家好, 欢迎收听老范讲故事的YouTube频道 。 今天咱们来讲一讲GPT-5发布了,到底是又一次划时代的革命,还是开始挤牙膏了呢?
8月8号凌晨开的发布会,我呢看了一眼就去睡觉了,实在是没有功夫把它都看完。北京时间凌晨1点开始发,我今天看了一下回放,大概是一个小时十几分钟吧,但是我并没有特别耐心地把它们都看完。
GPT-5到底有什么不一样的呢?
首先,这一次的发布会跟OpenAI以前的发布会,有一些巨大的差异。第一点大家有没有注意到,就是这次发布以后呢,没有出现服务器拥挤宕机的情况。以前甭管是Sora呀,还是GPT-4o这些产品发布的时候,紧随而来的都是OpenAI的服务器拥堵宕机。这次没有,第一时间就可用,免费版也可以使用,速度还挺快的。我自己反而感觉速度还可以,应该呢是进行了一些实时的算力分配,简单的问题就没必要消耗那么多的算力。原来呢,大家都是要尽可能用最大的模型,你哪怕问一个“你好,今天天气不错”,他也得把那个最大的模型跑起来。现在的话应该就不需要干这个事了,他发现你去问“你好,你是谁,你到底是哪个版本”的时候,他可能做一些很简单的回复,消耗的算力就比较小。这是第一个比较大的差异。
More
11 月 03
Luke Fan AIGC AI代理 , AI搜索工具 , Bing搜索 , ChatGPT app , ChatGPT搜索 , Chrome , Chrome插件 , Copilot , Google , Google 搜索 , GPT-4o , GPT聊天窗口 , O1模型 , OpenAI , OpenAI战略 , Perplexity , Plus用户 , SearchGPT , Teams用户 , 万圣节 , 严肃内容 , 产品功能 , 产品预览 , 人工智能 , 任务分解 , 使用体验 , 使用感受 , 信息丰富度 , 信息分类 , 信息整合 , 信息秩序 , 信息获取 , 信息过滤 , 候补名单 , 免费用户 , 内容审查 , 内容质量 , 原型产品 , 固件 , 大模型 , 小模型 , 幻觉 , 幻觉生成 , 引用追踪 , 技术原型 , 技术尝试 , 排序问题 , 插件 , 搜索引擎 , 搜索接口 , 搜索模式 , 搜索精度 , 搜索结果 , 数字助手 , 数据摘要 , 数据集成 , 数据鲁棒性 , 新闻源 , 样式 , 概念产品 , 深度搜索 , 版权 , 生成质量 , 用户体验 , 用户流量 , 用户群体 , 移动端 , 适应能力 , 限定产品 , 鬼故事 , 默认搜索引擎
ChatGPT搜索,OpenAI在万圣节给大家讲的鬼故事。这是一个什么样的情况?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲ChatGPT搜索。我使用一天以后的感受,以及为什么觉得它是一个万圣节的鬼故事。
11月1号,北京时间0:35,我收到了一封邮件。这个邮件上写了,说我们发布了ChatGPT搜索,这是OpenAI的官方邮件。首先感谢,我去注册了SearchGPT原型候补名单。这个里头大家注意有三个词:第一个是SearchGPT,第二个是原型产品,第三个叫waitlist。他首先感谢了这件事情,说我们很荣幸地宣布,这个ChatGPT搜索发布了,而且向您和所有候补名单上的用户开放访问权限。只要原来申请过的,现在还没有被批准的SearchGPT的候补名单里的这些人,通通都可以访问了。
现在,其实你即使不在候补名单里头,Plus用户和Teams用户都是可以使用的。免费用户可能要稍微等一等,但我不确定免费用户是不是可以在SearchGPT的候补名单里。这个事我不确定,如果是在里边,可能也能够使用。邮件是这么写的。
More
7 月 23
范, 路 AIGC 100亿参数 , 10亿参数 , 70亿参数 , AI Agent , AI模型策略 , Anthropic Cloud H3 , API代理 , API服务 , API调用 , GPT-3.5 , GPT-4o , GPT-4o MINI , OpenAI , Plus用户 , Plus订阅计划 , 个人服务器 , 中国市场 , 云端模型 , 产品发布 , 付费频道 , 价格便宜 , 价格策略 , 低价模型 , 免费用户 , 函数调用 , 分岔趋势 , 功能集成 , 参数未公开 , 台式机模型 , 合作伙伴 , 商业模型 , 商业策略 , 大模型市场 , 大模型替代 , 封禁中国IP , 小模型 , 小模型效能 , 工作流 , 工作站级别 , 市场占有率 , 市场反馈 , 市场竞争 , 市场趋势 , 市场需求 , 应用开发 , 开源模型 , 微型模型 , 技术优势 , 技术创新 , 技术挑战 , 技术程度 , 技术进步 , 技术领先 , 数据调用 , 未来计划 , 本地部署 , 模型升级 , 模型性能 , 浏览器插件 , 用户体验 , 用户分叉 , 用户反馈 , 用户吸引力 , 用户满意度 , 用户粘度 , 用户需求 , 田忌赛马 , 移动端模型 , 竞争对手 , 竞争策略 , 端侧使用 , 端侧竞争 , 经济考量 , 经济高效 , 视觉多模态识别 , 训练成本 , 谷歌Gemini Flash , 输入100万TOKEN , 输出100万TOKEN , 高性能模型 , 高效模型
OpenAI在封禁中国IP访问其API之后,第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型,这究竟是要卷死谁啊?中国团队是不是有机会弯道超车呢?大家好,这里是老范讲故事YouTube频道。Open AI第一次发布微型模型,以前的Open AI都是一个比一个大,因为原来人家讲的叫Scaring Law,就是这种伸缩法则,只要是变大,我一定会变强。而且,也嘲笑那些小模型说你们肯定不行啊,一定是大的好使。我自己原来也是很喜欢使用大模型,有大的不识小的,这是我原来挑选模型时候的基本原则。但是现在,Open AI开始卷小模型了。
Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。
那么,这样的一个鼓励越大越好的公司,原来更多的人力肯定是去研究更大的模型去了。现在说不,我要上一个小的,而且这种小模型呢,跟一般的小模型还有区别。区别在于它可以支持Function Call,可以支持视觉多模态的识别。那么,这是GPT4O MINI比其他的普通小模型所独有的特点。
More