4 月 18
Luke Fan AIGC AI发展趋势 , AI局限性 , AI幻觉 , AI应用 , AI易用性 , AI普及 , AI未来 , AI模型发布 , AI编程 , AI视觉 , AI记忆 (Memory) , AI评测 , API , API代理 (Open Router) , API定价 , ChatGPT Plus , Function Calling , Github Copilot , GPT-4o , GPT-5展望 , Greg Brockman , IDE集成 , Mark Chen , Meta data分析 , O3 , O4 mini , OpenAI , OpenAI发布会 , Sam Altman , Scaling law , Sora , TikTok直播带货话题生成 , YouTube话题推荐 , 一站式AI服务 (Total Solution) , 世界模型 , 人工智能 , 内容创作 , 图片推理 (Image Reasoning) , 大语言模型 , 实时交互 , 实用AI , 工具调用 (Tool Calling) , 强化学习 , 推理模型 , 搜索集成 , 模型对比 (OpenAI vs 竞品) , 潭柘寺图片识别 , 科技评论 , 跨模态AI
VIDEO
GPT-3和O4 mini发布了,这次绝不再仅仅是科学家们的玩具了。大家好,欢迎收听老范讲故事的YouTube频道。
本来GPT-3和O4 mini发布呢,我并没有抱太大的期望。为什么呢?因为前面O1和O3 mini发布的时候呢,看得我头晕眼花的。我记得应该是在去年12天连续发布会的时候发布的O3 mini,实在是太不明觉厉了。各种的复杂科学问题,咔咔就给解决了,然后各种的排名都排得很高。但是呢,我自己其实并不怎么用。
为什么呢?第一个,ChatGPT Plus用户里边呢,它是有用量限制的,并不是随便让你用的。所以在有用量限制的情况下,你就得省着用,而且你也感觉不出有太大差异来。你说你用它干嘛?据说编程很强,但是它没法跟IDE结合,基本上也就放弃了。你是可以出一大堆的代码,但是你还得向IDE里边去考来考去的,很麻烦。那你说我通过API调用吧,直接使用O1和O3 mini这些模型,实在是贵,所以就放弃了。
More
3 月 04
Luke Fan AIGC , DeepSeek大模型 545%利润 , 557.6万美金 , AI优化 , AI优化技术 , AI公关策略 , AI公司争斗 , AI利润计算 , AI商业模式 , AI商战 , AI基准价格 , AI市场格局 , AI开源项目 , AI成本分析 , AI投资策略 , AI推理市场 , AI推理未来 , AI数据中心 , AI服务器管理 , AI生态小厂 , AI硬件 , AI自由市场 , AI行业内幕 , AI行业梗 , AI行业盈利 , AI话题营销 , AI资源分配 , AI量化交易 , AI量化模型 , AI高峰时段 , API定价 , CUDA , DeepSeek , Deepseek V3 , DeepSeek开源库 , DeepSeek计算精度 , GPU全天运营 , GPU租赁成本 , GPU负载均衡 , H100芯片 , H800 , MAAS厂商 , MAAS盈利模式 , MAAS竞争 , R1价格 , 中国AI企业 , 中美AI价格差 , 中美AI市场对比 , 云服务厂商 , 云计算 , 华为云 , 商业逻辑 , 大模型服务 , 大模型训练 , 字节跳动DeepSeek , 并行计算 , 开源协议 , 推理利润 , 推理效率 , 推理系统 , 数据参考价值 , 数据水分 , 数据逻辑 , 模型优化策略 , 模型即服务 , 深度学习 , 硅基流动 , 腾讯DeepSeek , 腾讯IMA , 芯片性能 , 训练成本 , 路深科技 , 达芬奇架构 , 阿里云投资
VIDEO
DeepSeek也玩“one more thing”,突然公布了它的推理利润达到545%,就像当初557.6万美金的训练成本那样,再次震惊了行业。大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲,DeepSeek结束了连续5天的开园周之后,到礼拜六玩了一次“one more thing”。这个“one more thing”呢,应该是当年乔布斯的梗。他每一次开发布会到最后的时候呢,都要说“还有一件事,等一等”,而且这一件事呢,往往是特别重要、特别颠覆性的事情。那么这一次又来了,DeepSeek公布了它的V1和R3推理系统相关内容,及大规模部署的成本和收益数据。就是说我部署了这东西以后,到底是挣了多少钱?非常非常让人震惊,因为所有人做这个东西都说我不挣钱,我亏钱,结果等到他这好,545%的利润,所有人都傻了,说你到底咋干的?
具体的实现方法呢,就不再跟大家详细分析了。简单来说,第一个负载均衡,你想他有这么多的GPU,这么多的核心,在他这种MOE的架构下,他把每一层的模型里边每一个专家,分配到不同的设备上面去进行运算。这个呢,就是一个负载均衡,尽量让所有的芯片都动起来,不要说有的芯片闲着呢,有的芯片在那排队。第二个,并行计算。并行处理是什么呢?所有的芯片一起来干活,这个速度肯定会变快。另外呢,一边干活的时候,另外一边呢,再同时进行数据的读写。你不能说我这需要数据了,你给我读,然后处理完了以后你再去写,这样就变慢了嘛。所以基本上在做这样的事情,负载均衡和并行处理。
另外还有一个什么样的事情在做呢?就是有一点点叫“驴粪蛋表面光”。这个也算是老北京的一个俏皮话,什么意思呢?就是这个驴粪球外边是很光滑的,但是里边呢,就是一堆的没有消化好的碎草。DeepSeek也是如此,他把很多的计算精度呢进行了调整,他尽可能的能够达到大家的要求,但是很多细节上的这些你看不到的环节呢,就给你忽略掉了。
More