5 月 14
Luke FanAIGC AGI, AI伦理, AI全球化, AI公共服务, AI医疗, AI地缘政治, AI基础设施, AI应用, AI投资, AI教育, AI本地化, AI模型定制, AI治理, AI生态, AI监管, AI竞争, AI算力, ChatGPT, DeepSeek, GPU, MGX, OpenAI, OpenAI国家计划, Oracle, Qwen通义千问, 一带一路, 专制AI, 中国AI, 中美科技战, 主权AI, 云计算, 价值观输出, 华为云, 国家AI战略, 大语言模型, 字节跳动, 山姆·奥特曼, 巨额投资, 开源AI, 数据隐私, 星际之门, 民主AI, 盟友国家, 科技霸权, 算力中心, 老范讲故事, 腾讯云, 英伟达GB200, 软银, 闭源AI, 阿里云, 霸权AI, 黄仁勋
OpenAI的星际之门和民主AI,到底要对抗谁呢?
大家好,欢迎收听老范讲故事的YouTube频道。山姆·奥特曼亲临德州星际之门工地,现场指导工作去了。他在德州阿比林市星际之门工地现场做了一些现场指示,这就是他们星际之门的第一期工程。项目花费呢,首期投入是1,000亿美金,未来四年共计消耗5,000亿美金。但后边的事大家就别太当真了,因为后面还有很多钱可能需要各国政府去掏,待会我们再去讲。
第一期建设呢,主要是软银掏钱。Oracle负责设计、施工和建造,所以现场拍到的照片,大家穿的小背心、安全帽上面都是写的Oracle的字样。计划部署6.4万台英伟达GB 200 GPU,首期的1.6万台英伟达GB 200 GPU应该是在今年夏天就可以完成安装,就可以投入使用了。
More
5 月 11
Luke FanAIGC AI, Anthropic, Elon Musk, Microsoft, OpenAI, PBC, Sam Altman, SoftBank, XAI, 上市前景, 人工智能, 估值, 公众利益, 公司改制, 公司治理, 公益公司, 利润分配, 加州总检察长, 商业模式, 孙正义, 山姆·奥特曼, 巴塔哥尼亚, 微软, 投资, 收入分成, 有限盈利公司, 期权池, 未来发展, 法律监管, 特拉华州, 科技行业, 组织架构, 股东权益, 股权结构, 董事会控制, 融资, 赢家输家, 软银, 非营利组织, 马斯克
OpenAI改制失败,到底谁输谁赢?
大家好,欢迎收听老范讲故事的YouTube频道。
5月5日,OpenAI宣布改制失败。什么改制失败?大家都知道,OpenAI原来最上面是一个非营利机构,说是必须要改制,改成正式的私营公司才可以继续融资、继续挣钱、继续上市。特别是孙正义的软银给了300亿美金,说:“你必须改,如果改不了的话,我就给你100亿,剩下200亿不给了。”
5月5号,OpenAI宣布:“我们玩废了,没有彻底改成功。”被谁叫停了呢?被特拉华州和加州的总检察长叫停了,说:“你原来是非盈利机构,非盈利机构是免税的。你现在不能说一拍脑袋就转过来,那侵害了原来这些公众的利益。原来你号称是为了全人类,现在一下就变成私营的了,那这个全人类的利益,你不能直接把它放弃了。”所以导致改制失败。
More
5 月 09
Luke FanAIGC, Google的故事 A2A协议, AI Agent, AI协作标准, API设计, Function Calling, Gemini, Google AI, HTTP, JSON, LLM, Lotus Domino, MCP模型上下文协议, OpenAI, SharePoint, SOA (服务导向架构), SSE, YouTube频道, 人工智能, 历史失败案例, 复杂系统风险, 大语言模型, 屎山代码, 开发者视角, 异构系统集成, 异步处理, 微服务, 技术史借鉴, 技术演进规律, 技术评论, 技术选型, 智能体互操作, 智能体协作, 看起来很美就不要想得太美了, 科技趋势解读, 程序员经验, 系统设计, 老范讲故事, 谨慎评估, 谷歌A2A, 跨平台协作, 软件架构, 顶层设计批判
谷歌的A2A看起来很美,就不要想得太美了。
大家好,欢迎收听老范讲故事的YouTube频道。
“看起来很美,就不要想得太美了。”这句话哪来的呢?来自于猫腻的小说《将夜》。这个里面有一句话叫:“你长得很美,所以就不要想得太美了。”事情是在哪呢?是在隆庆皇子看到桑桑酒量很好,就想收其为侍女。桑桑呢,是里面的一位女主,而隆庆皇子呢,长得很漂亮,而且身份地位非常高,手持大义的一个人。他提出了这样的一个要求,当时的主人公宁缺就进行了反击,说:“你长得很美,就不要想得太美了。”意思是什么呢?就是保持对现实的清醒认知,你要知道自己是谁,几斤几两。而且呢,也要敢于对强权逻辑进行挑战。
那么,这个事儿跟今天咱们要讲的谷歌A2A有什么样的关系呢?首先先讲一下,谷歌A2A到底是个什么东西。
More
5 月 05
Luke FanAIGC, Meta的故事 2023年, 2024年, 2025年预测, AI Agent, AIGC (AI Generated Content), AI发展, AI战略, Anthropic, API服务, ChatGPT, DeepSeek, Facebook, Gemini, Google, GPT-4o, Grok, Groq, LLaMA, LLAMA API, LLAMA Con, LLAMA发布历史, Meta, Meta AI APP, OpenAI, Qwen (通义千问), XAI (马斯克), 云计算, 亚马逊云, 产品体验, 人工智能, 元宇宙战略影响, 免费策略, 商业模式, 大语言模型 (LLM), 字节, 应用程序 (APP), 开发者大会, 开源模型, 微软云, 战略失误, 战略惯性, 扎克伯格, 扎克伯格 (Mark Zuckerberg), 技术社区, 播客内容, 智能眼镜, 杨乐坤 (Yann LeCun), 杨乐坤观点, 模型对比, 流量入口争夺, 深度学习, 百度, 社交优势, 科技评论, 竞品分析, 老范讲故事, 腾讯, 腾讯元宝, 行业分析, 起了个大早赶了个晚集, 追赶者, 阿里, 马斯克 (Elon Musk)
Meta召开LLAMA Con开发者大会。他原来丢的这些课程,现在补还来得及吗?
大家好,欢迎收听老范讲故事的YouTube频道。4月29号,Meta召开了首届的LLAMA CON开发者大会。Meta原来是开open大会,他反正每年都会开一到两次的这种开发者大会,这是开了第二次开发者大会了。这一次呢,主要就是对LLAMA进行了一些发布。前面LLAMA4已经发布过了,而且发完了以后还翻车了。现在呢,Meta说我也要去补课了。
补什么课呢?第一个是我要出一个独立的APP智能助手,叫MetaAI APP,对标ChatGPT。另外呢,我要开始面向开发者直接提供官方的LLAMA API服务了。这块呢,还准备去跟Groq这些芯片厂商去合作去,我帮他们去部署。现在呢,LLAMA的这些服务都是免费给大家使用的,LLAMA API未来有可能会收费。
你说人家OpenAI一出ChatGPT就开始给大家提供服务,APP也出了这么长时间了。这Meta真的是起了个大早赶了个晚集,到今天才想起来说我的这些API也要为大家服务了,我的APP也要为大家服务了,还来得及来不及?
More
5 月 04
Luke FanAIGC Agent能力, AI agent开发, DeepSeek R1 对比, Gemini 2.5 Pro 对比, GitHub 开源, GPT-4o 对比, Grok 对比, Llama 4 对比, MCP协议支持, MOE模型 (混合专家模型), Ollama, Open Router, PC端应用, Qwen3, XAI 对比, 上下文窗口 (128K/256K), 专业数据, 云部署, 人工智能 (AI), 代码生成, 优缺点, 全系列模型 (0.6B-235B), 划时代的胜利 vs 翻车, 千问3, 原生数据, 参数效率, 合成数据, 后训练, 商业应用, 多场景适配, 多语言支持 (119种), 大语言模型 (LLM), 工具调用, 幻觉问题, 开源模型, 强化学习 (RLHF), 微调 (Fine-tuning), 性能分析, 性能评测, 技术创新, 指令遵循, 数学推理, 数据来源, 本地部署, 模型使用, 模型发布, 模型对齐, 混合推理架构, 用户体验, 田忌赛马策略, 真实感受, 硅基流动, 移动端应用, 稠密模型, 评测数据, 逻辑推理, 长思维链, 阿里云百炼, 阿里大模型, 预训练 (36T数据)
Qwen3发布了。这到底是划时代的胜利,还是翻车了呢?
大家好,欢迎收听老范讲故事的YouTube频道。Qwen3真的是千呼万唤始出来。前面好几周就已经不断有传言说Qwen3要发布,要多么多么强大。突然发布之后,当然也肯定是伴随着一大堆的评测数据了。官方评测数据呢,永远是我超越了谁、超越了谁。但是很多评测的人呢,觉得好像差那么一点点意思,没有达到预期。所以今天我们来讨论一下,这到底是又一次划时代的胜利,还是翻车。
Qwen3呢是凌晨发布的,4月29日凌晨上线,在Github上全面开放。我呢已经开始用上了。使用的方法有几种:
第一种是本地部署。我是MacBook Pro,M2 Max的芯片,32G内存。其他的不重要,你到底有多少硬盘,这个事没有那么重要。本地使用OlAmA部署,我使用了8B、32B和30B-A3B。最后这个是什么意思?最后是一个MOE的模型,它是30B-A3B,就是说它每一次干活的时候激活3B,也就是30亿参数。它是这样的一个标注。就这三个版本的模型,在我本机都可以跑,速度呢都是还可以接受。
More
4 月 24
Luke FanAIGC, 字节跳动,故事多 AI Agent, AI应用, AI竞争格局, Anno 1800, Anthropic, API接口, Baidu, ByteDance, Claude 3.5, Coze Space, Coze Space评测, DeepSeek R1, Gemini 2.5 Pro, Google, GPT-4o, Llama 4, LLM, Manus, MCP (模型控制插件/标准), Meta, OpenAI, PPT生成, Token消耗, Waiting List, 产品体验, 产品对比 (Coze vs Manus vs Grok vs XinXiang), 产品评测, 代码生成, 任务拆解, 优劣势分析, 免费试用, 内容生成, 功能演示, 可视化网页生成, 呼伦贝尔自驾, 复杂任务处理, 大语言模型, 字节跳动, 工具调用 (内部/外部), 市场调研, 心想APP, 扣子空间, 扣子空间使用, 搜索质量, 数据调用, 文档生成, 旅游攻略, 智能体, 游戏攻略, 现象级产品, 用户分析, 用户反馈, 电动车充电, 百度, 简历筛选, 自动化, 自我规划, 行程规划, 表格生成, 访谈记录整理, 豆包大模型, 通义千问, 邀请码, 阿里, 高德地图, 黑神话悟空
Manus的后劲来了。百度、字节都有了自己的agent产品上线。
大家好,欢迎收听老范讲故事的音乐节目频道。字节上线了扣子空间,百度上线了心想APP。Manus的光环不再。Manus本身就属于意外爆火,当时它突然火了以后,咱们还做了直播,说这个东西没有什么技术门槛,只是产品设计的很有意思。
Manus跑去跟阿里合作了之后,那字节、百度说这不行,咱们也得有自己的产品上线。又不是有多难做的东西,那就做呗。我呢,搞了一个字节扣子空间的邀请码,咱们呢试一试,看看这个产品到底怎么个用法儿。
Manus呢,到现在我也没用上。原因也很简单,我去申请测试,等了很久,到现在都已经开始收费了,也没有收到说你可以来玩一下的这个邀请。所以也就别费劲了。我自己呢也没有特别着急,我要特别着急想用的话,随便找两个人去要一些邀请码,也还是可以搞得定的。既然没有那么热心的话,也就没有上心去找嘛。
More
4 月 18
Luke FanAIGC AI发展趋势, AI局限性, AI幻觉, AI应用, AI易用性, AI普及, AI未来, AI模型发布, AI编程, AI视觉, AI记忆 (Memory), AI评测, API, API代理 (Open Router), API定价, ChatGPT Plus, Function Calling, Github Copilot, GPT-4o, GPT-5展望, Greg Brockman, IDE集成, Mark Chen, Meta data分析, O3, O4 mini, OpenAI, OpenAI发布会, Sam Altman, Scaling law, Sora, TikTok直播带货话题生成, YouTube话题推荐, 一站式AI服务 (Total Solution), 世界模型, 人工智能, 内容创作, 图片推理 (Image Reasoning), 大语言模型, 实时交互, 实用AI, 工具调用 (Tool Calling), 强化学习, 推理模型, 搜索集成, 模型对比 (OpenAI vs 竞品), 潭柘寺图片识别, 科技评论, 跨模态AI
GPT-3和O4 mini发布了,这次绝不再仅仅是科学家们的玩具了。大家好,欢迎收听老范讲故事的YouTube频道。
本来GPT-3和O4 mini发布呢,我并没有抱太大的期望。为什么呢?因为前面O1和O3 mini发布的时候呢,看得我头晕眼花的。我记得应该是在去年12天连续发布会的时候发布的O3 mini,实在是太不明觉厉了。各种的复杂科学问题,咔咔就给解决了,然后各种的排名都排得很高。但是呢,我自己其实并不怎么用。
为什么呢?第一个,ChatGPT Plus用户里边呢,它是有用量限制的,并不是随便让你用的。所以在有用量限制的情况下,你就得省着用,而且你也感觉不出有太大差异来。你说你用它干嘛?据说编程很强,但是它没法跟IDE结合,基本上也就放弃了。你是可以出一大堆的代码,但是你还得向IDE里边去考来考去的,很麻烦。那你说我通过API调用吧,直接使用O1和O3 mini这些模型,实在是贵,所以就放弃了。
More
4 月 16
Luke FanAIGC 100万Token上下文, AI Agent, AI agent开发, AIGC, AI工具更新, AI市场竞争, AI成本优化, AI技术更新, AI模型对比, API发布, API调用, B端市场, Claude 3.5, Claude 3.7, C端用户, DeepSeek R1, Deepseek V3, Gemini 2.0, Gemini Pro 2.5, GPT-4.1, GPT-4.1评测, Grok 3 mini, LLM, MidJourney, OpenAI, OpenAI战略, RAG (检索增强生成), Sora, 人工智能, 价格便宜, 低成本AI, 可控性强, 多模态AI, 多版本 (Standard/Mini/Nano), 大海捞针测试, 大语言模型, 实时AI (Realtime AI), 工程应用, 工程需求, 开发者API, 开发者福音, 开源模型, 技术发展趋势, 技术解读, 技术选型, 指令遵循度高, 推理能力, 模型评测, 牛马工具 (程序员自嘲), 程序员工具, 稳定性好, 编程能力提升, 观点分享, 视频理解能力, 速度快, 长上下文处理, 高性价比, 高效AI模型
GPT4.1发布了!牛马们的好工具终于上线了。大家好,欢迎收听老范讲故事的YouTube频道。
GPT4.1突然发布,这是程序员们的工具。普通的用户你是用不上的。你用网页版,你用APP,甭管是手机端的还是电脑端的,你是付费用户还是免费用户,你都用不到GPT4.1。只有程序员可以通过API调用GPT4.1。
但是这个事儿对于非程序员来说,也是有很大改变,很大帮助的。那么我们今天来讲一讲,GPT4.1到底是一个什么样的东西。
首先,它有100万TOKEN的上下文,这个是非常吓人。100万单词吧,基本上你可以直接塞到GPT4.1里头去,它统一给你处理。而且大海捞针做的也很不错。
More
4 月 13
Luke FanAIGC A2A, AGI (通用人工智能), AI Agent (智能代理), AI助理, AI行业发展, Anthropic, API, ChatGPT, Google (Gmail), MCP (模型调用协议/工具调用), Meta, OpenAI, RAG (搜索辅助生成), Sam Altman, Sam Altman (山姆·奥特曼), Token限制, XAI (Grok), 个性化体验, 个性化设置, 临时聊天, 人工智能 (AI), 共享账号限制, 关键一步, 大语言模型 (LLM), 字节跳动 (ByteDance), 小模型, 平台战略, 微调 (Fine-tuning), 微软 (Microsoft), 携程 (Ctrip), 数据安全, 无状态服务, 有状态服务, 本地知识库, 流量转化, 消费互联网公司, 生态系统, 用户画像, 用户留存, 用户粘性, 用户记忆, 百度 (Baidu), 缓存Token, 美团 (Meituan), 聊天记录引用, 腾讯 (Tencent), 苹果 (Apple), 记忆功能, 账号登录体系, 长期记忆, 阿里 (Alibaba), 隐私保护, 高德地图
ChatGPT推出了记忆功能,这是整个行业迈出的非常重要的一步。大家好,欢迎收听老范讲故事的YouTube频道。这是让山姆·奥特曼都兴奋得睡不着觉的一个功能,也就是给ChatGPT加GE。很多人都在讲说这个好像并没有多难,使用起来也没有觉得有多大的差异。这样的一个功能,怎么到老范这就变成了整个行业迈出了关键一步?到了山姆·奥特曼那里,就变成了兴奋的睡不着觉了呢?这到底是一个什么样奇葩的功能?有什么是大家没有理解到的?今天咱们来讲一讲。
在2025年4月10号,山姆·奥特曼发了一条推,说:“有那么几次,我会因为太兴奋而早早醒来,再也睡不着。今天就是这样的一天。”今天我们就来讲一讲这个GPT的记忆功能,为什么这么强大、这么好,能够让山姆·奥特曼都兴奋的睡不着,能够让老范来说这是整个行业迈出的关键一步。那么,ChatGPT的记忆功能其实以前也有,并不是没有,不是说到4月10号才推出的,而是4月10号做了一个相对比较关键的更新。那么更新了哪些东西呢?
第一个就是它直接可以引用我们的聊天记录了。它可以根据我们跟ChatGPT聊天的过程来去提取各种需要具体记下来的信息,而不需要像原来那样很显示的告诉他说:“请记住这个,请记住那个。”这个都不需要,现在他是完全可以自己记下来的。而且在后面我们跟ChatGPT聊天的过程中,可以非常灵活的来利用这些记忆,让ChatGPT变成一个越来越懂我们的助手。
More
4 月 09
Luke FanAIGC, Meta的故事 AI伦理, AI生成, AI评测, AI负责人辟谣, Benchmark作弊, DLIU DLIU, Llama 4, LLM, Meta, Meta AI, Meta回应, 人工智能, 作弊指控, 内部爆料, 基准测试, 大语言模型, 学术不端, 实际使用效果, 开源模型, 开源社区, 快速发布后果, 性能评估, 技术报告缺失, 数据污染, 模型蒸馏, 沃顿商学院教授, 测试集污染 (背真题), 版本不一致 (开源vs测试), 科技争议, 科技新闻, 稳定性问题, 编程能力差, 自然语言处理, 跑分作弊, 过度优化, 验证方法
Meta的Llama4发布之后,深陷作弊风潮。大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲Meta的Llama4被人怀疑作弊,他到底是不是真的作弊了。
前面我们做过一期视频,说Llama4发布的时候没有太大的响动,因为它出来以后发现,虽然评测还不错,但是使用起来并没有感觉比现在主流的模型强到哪去。现在不行了,负面消息传出来了,说你大模型出来的时候跑分的成绩很高,但是我们使起来不是这么回事,有点名不副实的样子,特别是编程的效果极差。
为什么大家去比较编程呢?两个原因:
第一个,去玩这些开源大模型的,一般都是程序员。
第二个,编程是一个相对来说标准比较统一的评测。你编得出来编不出来,编完了效果怎么样,这个一眼就能看出来,没法作假。你说我写个诗或者写个小说,这个玩意还有仁者见仁、智者见智的时候。这编程这个东西,对就是对,不对就是不对,或者你做完了以后它的效果有问题,一眼就能看出来。所以现在被人质疑了。
More
Older Entries Newer Entries