2 月 11
Luke FanAIGC, DeepSeek大模型 029筛选, 16张H100显卡, 32B模型, 50美金AI训练, 59, AI公司裁员, AI商业化, AI小公司机会, AI开发路径, AI成本控制, AI技术突破, AI推理模型, AI教母, AI模型蒸馏, AI测试标准, AI用户粘度, AI科学方法, AI筛选问题, AI行业未来, AI行业竞争, AI行业落地, AI领域定制, AI领域案例, ChatGPT O1, ChatGPT对比, DeepSeek R1, Gemini 2.0 Flash thinking, Gemini数据, S1K模型, Together平台, Together平台训练, 中国AI创新, 人工智能创新, 低成本AI, 可感知AI效果, 大模型与小模型, 大模型优化, 大模型应用, 小型模型训练, 小模型训练, 开源微调模型, 微调模型, 推理效率提升, 推理时间优化, 推理步数评估, 收敛性评估, 教育AI模型, 数据训练优化, 斯坦福大学, 普林斯顿大学, 李飞飞, 法律AI模型, 用户定制化AI, 电子工程博士, 硅基流动, 硅基流动平台, 置信度评估, 蒸馏模型方法, 蒸馏训练技术, 蒸馏问题技术, 财务AI模型, 通义千问, 问题筛选技术, 预算强制法, 高效AI解决方案, 高效AI训练
大家好!欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲李飞飞的S1K模型。50美金成本超越DeepSeek R1和ChatGPT O1。
首先呢,DeepSeek到底是怎么震惊全球的?就是因为训练成本低。他的训练成本是OpenAI的3%,所以震惊了全球。
那么现在李飞飞的S1K模型,16张H100的显卡,跑了26分钟跑完了,拿到了一个32B的模型。多项测试超越了DeepSeek R1和GPTO1。
大家要注意,评测大模型呢,它有很多很多测试项。一般我们说基本上达到什么什么水平,就属于叫互有伯仲。有些你强点,有些他强点。原来大家都超不过GPT 4O,是因为只能接近它,距离它的全项指标都有差距。现在的话,大家就已经基本上可以达到GPT 4o的水平了。
More
12 月 27
Luke FanAIGC, Musk传奇 AIGC, AI企业合作, AI公司估值, AI公司估值增长, AI公司动态, AI公司发展, AI公司战略, AI公司扩张, AI公司收入, AI公司目标, AI公司融资, AI内容审核, AI内容对齐, AI创新, AI发展方向, AI商业应用, AI商业模式, AI图像生成工具, AI市场份额, AI市场投资, AI市场机遇, AI市场竞争, AI市场竞争力, AI市场趋势, AI市场需求, AI平台, AI应用开发, AI开放API, AI技术创新, AI技术发展, AI技术合作, AI技术壁垒, AI技术应用, AI技术突破, AI投资, AI数据支持, AI模型性能, AI流量池, AI盈利模式, AI算力集群, AI融资, AI行业, AI行业分析, AI行业前景, AI行业动态, AI行业发展, AI行业影响, AI行业挑战, AI行业排名, AI行业潜力, AI行业现状, AI行业竞争, AI行业趋势, AI行业领先者, AMD, Anthropic, Arura图像生成, GPT Search, Grok模型, NVIDIA, OpenAI, SpaceX, XAI, x平台, 商业化, 场景拓展, 埃隆·马斯克, 字节跳动, 客户获取, 模型训练, 特斯拉, 谷歌Gemini, 通义千问
埃隆·马斯克的 xAI 拿了 60 亿美金的投资,估值达到 500 亿美金,准备去追赶 OpenAI 了。他还追得上吗?
大家好,欢迎收听老范讲故事的 YouTube 频道。咱们今天来讲一讲 xAI 拿了 60 亿美金投资,追赶 OpenAI 的故事。这一轮的投资里面,英伟达、AMD 都在,还有一些上一轮的投资者。
大家注意,不是说谁想投资他谁就可以的,只有上一轮的投资者,才有资格去投资 xAI。还有哪些人呢?就是协助埃隆·马斯克去收购 Twitter 的这些人,他们是有资格去投资 xAI 的。但是有限制,协助埃隆·马斯克收购 Twitter 的这些人呢,占股不超过 25%。其他的说我是上一轮投资人,他是可以无限制地在里面去进行投资的。你说我这两个都没沾边,那对不起,这个事跟你没关系。
More
12 月 25
Luke FanAIGC AGI, AI API调用, AIGC未来, AI与机器人, AI互动演示, AI人工智能发展, AI创业, AI创新应用, AI发展方向, AI工具进化, AI开发, AI慎重对齐, AI技术, AI技术突破, AI推理模型, AI数学能力, AI用户体验, AI用户覆盖, AI硬件控制, AI编程比赛, AI行业分析, AI行业标准, AI训练成本, AI高端功能, API增强, API降价, ARC AGI测试, CANVAS项目, ChatGPT, ChatGPT API, ChatGPT Mac版, ChatGPT实时语音, GPT-5, Notion AI, O3 API特性, O3mini, O3性能, O3模型, OpenAI, OpenAI AGI, OpenAI O1升级, OpenAI 视觉输入, OpenAI与开发者, OpenAI使用技巧, OpenAI具身智能, OpenAI功能整合, OpenAI发布会, OpenAI安全机制, OpenAI高成本运算, Sora, WebRTC, 人工智能动态, 具身智能, 函数调用, 大模型, 实时语音, 搜索与语音集成, 结构化输出, 视觉实时语音, 高端推理模型, 高级语音功能
OpenAI连续12天的发布会到底为世界指明了什么样的方向?大家好,欢迎收听老范讲故事的YouTube频道。
OpenAI的12天发布会已经结束了。首先,从我个人的感受上来说,稍微有一点点失望。没有带来新一代的Dalle,也就是绘图模型;也没有GPT-5,哪怕是GPT-4.5的升级都没有。Sora虽然发布了,但是他所发布出来的产品跟大家的预期是严重不符的。
那么,这12天到底都发了些什么呢?前面7天其实已经录了一期节目进行总结了,咱们这里就不再重复。后边5天,第八天是搜索和实时语音进行了合并。我在前面7天总结最后的时候,讲了一下我说,现在OpenAI发布了大量的工具,是隔离的。语音是语音,搜索是搜索,canvas这种画板,还有其他的很多工具,是相互隔离的。就是你要选择其中一个功能,其他的功能就不能选了。未来的话,一定会逐渐把他们再合并起来。
More
7 月 25
Luke FanAIGC, Meta的故事, OpenSource 405B版本, AI上下文窗口, AI事实标准, AI产业方向, AI产业链, AI偷跑事件, AI公司发展, AI创新挑战, AI创新推广, AI功率需求, AI协议限制, AI商业机会, AI商业模式, AI多模态, AI多语言支持, AI宏大模型, AI市场分析, AI应用前景, AI开源协议, AI性能测试, AI性能超越, AI技术合作, AI技术商业化, AI技术应用, AI技术投资, AI技术支持, AI技术突破, AI技术革新, AI显卡需求, AI未来趋势, AI标准化, AI模型优化, AI模型开放, AI模型电费, AI法律框架, AI生态价值, AI生态系统, AI生态系统发展, AI硬件需求, AI磁力链, AI空调耗电, AI能耗问题, AI行业分析, AI行业动态, AI行业趋势, AI计算能力, AI训练成本, AI训练数据, AI训练时间, AI语言支持, GPT-4对比, GPT-4跑分, HIKING face数据集, LLaMA, Llama 3.1, Llama 3.1 405b, Together AI, 中国AI厂商, 中国AI厂商冲锋, 中美科技博弈, 多模态支持, 开源与闭源, 拉玛模型争议, 梅塔与中国, 梅塔公司, 模型微调
Llama3.1 405b突然开放,指标上全面超越GPT-4。中国厂商们是不是又可以充了呢?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲Llama3.1 405b 开放的事情。
Llama的开放,每一次都比较有戏剧性,都会有偷跑。什么叫偷跑?就不是由官方开了发布会,说我今天发布了一个什么产品,而是一般都是在Reddit这样的论坛里,突然就有人放出磁力链来,大家可以去BT下载Llama3.1 405B,包括Llama3.1 405B相关的各种测试数据,都是这么被发现的。头一天偷跑了以后,第二天梅塔说那算了,我开了吧。当时好像Llama2也是这么开出来的,现在Llama3.1 也是这么偷跑,完了以后就正式开放了。
他在跑分上已经全面地超越了GPT-4,基本上在各个指标上都超越了。这是非常非常难的,因为以前大家推出的各种模型里头,都是在个别指标里面超越GPT-4O或者超越GPT-4。那么在各项指标上全都超越的,这应该是第一次。当然了,它也是分很多版本的,分为8B、70B以及405B这三个版本。405B已经完全超越了,下面小一点的8B,应该比原来的Llama370B的效果还要再好一些。它的70B基本上针对前两天发布的GBT4OMINI,属于碾压状态。
More