2 月 11
Luke FanAIGC, DeepSeek大模型 029筛选, 16张H100显卡, 32B模型, 50美金AI训练, 59, AI公司裁员, AI商业化, AI小公司机会, AI开发路径, AI成本控制, AI技术突破, AI推理模型, AI教母, AI模型蒸馏, AI测试标准, AI用户粘度, AI科学方法, AI筛选问题, AI行业未来, AI行业竞争, AI行业落地, AI领域定制, AI领域案例, ChatGPT O1, ChatGPT对比, DeepSeek R1, Gemini 2.0 Flash thinking, Gemini数据, S1K模型, Together平台, Together平台训练, 中国AI创新, 人工智能创新, 低成本AI, 可感知AI效果, 大模型与小模型, 大模型优化, 大模型应用, 小型模型训练, 小模型训练, 开源微调模型, 微调模型, 推理效率提升, 推理时间优化, 推理步数评估, 收敛性评估, 教育AI模型, 数据训练优化, 斯坦福大学, 普林斯顿大学, 李飞飞, 法律AI模型, 用户定制化AI, 电子工程博士, 硅基流动, 硅基流动平台, 置信度评估, 蒸馏模型方法, 蒸馏训练技术, 蒸馏问题技术, 财务AI模型, 通义千问, 问题筛选技术, 预算强制法, 高效AI解决方案, 高效AI训练
大家好!欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲李飞飞的S1K模型。50美金成本超越DeepSeek R1和ChatGPT O1。
首先呢,DeepSeek到底是怎么震惊全球的?就是因为训练成本低。他的训练成本是OpenAI的3%,所以震惊了全球。
那么现在李飞飞的S1K模型,16张H100的显卡,跑了26分钟跑完了,拿到了一个32B的模型。多项测试超越了DeepSeek R1和GPTO1。
大家要注意,评测大模型呢,它有很多很多测试项。一般我们说基本上达到什么什么水平,就属于叫互有伯仲。有些你强点,有些他强点。原来大家都超不过GPT 4O,是因为只能接近它,距离它的全项指标都有差距。现在的话,大家就已经基本上可以达到GPT 4o的水平了。
More
2 月 04
Luke FanAIGC AI云计算, AI伦理问题, AI创新产品, AI市场定价, AI开源, AI未来社会, AI模型蒸馏, AI用户体验, AI研发进展, AI竞争, AI闭源, AMA活动, ChatGPT O3 mini, ChatGPT中文思维, ChatGPT成本, ChatGPT推理, ChatGPT高级语音, Dalle图像模型, DeepSeek R1, DeepSeek R1速度, DeepSeek中文版, DeepSeek全球部署, DeepSeek创新, DeepSeek定价策略, DeepSeek模型性能, GPT-5发展, GPT大模型, O3 mini价格, O3 mini使用限制, O3 mini免费功能, OpenAI, OpenAI与微软博弈, OpenAI估值, OpenAI微软冲突, OpenAI盈利模式, OpenAI融资, OpenAI软银融资, Reddit与OpenAI, 全球AI竞争, 大模型开源, 大模型思维过程, 大模型权重, 山姆奥特曼认错, 微软Azure, 微软GitHub Copilot, 微软与OpenAI合作, 微软独家转售权, 推理模型, 无用阶级, 精英社会, 英伟达HGX H200, 软银投资OpenAI
ChatGPT O3mini正式发布的时候,山姆奥特曼到底算不算是认错了呢?大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲O3mini的发布,以及奥特曼到底在说些什么。
过年的时候,基本上是被DeepSeek刷屏了。全世界各地跟AI相关的,或者不相关的人,都在尝试去理解和阐述DeepSeek到底干了点什么,到底对于他们有什么样的影响。风口浪尖上的这些闭源大模型公司,特别是OpenAI,肯定也是坐不住的,把它的王炸级产品ChatGPT O3 mini给炸出来了。发布了以后,马上还去做了一个访谈,回答了很多相关的问题。在其中,承认了说在开源领域里头好像站错队了。
那么先说一下O3 mini到底是一个什么样的情况。O3 mini的速度还是非常快的,跟O1 mini的速度相近。它的性能应该是接近原来的O1性能。大家看到很多很多的评测,这个分高点,那个分低一点,也有很多人在那扑克脸,念这些评测的结果。但其实这些评测到底哪一个是什么意思,差异在什么地方,绝大部分人很难理解。我也不在这费劲跟大家讲到底是什么情况了。我只能说O3 mini也好,O1也好,包括DeepSeek R1也好,这些模型它们的能力差异其实已经脱离了普通人的认知范围,总之都很强就可以了。
More