8 月 24
Luke Fan DeepSeek大模型 AI Agent , AI大模型 , AI科普 , AMD , A股 , Deepseek V3.1 , FP8 , H100 , H800 , MindSpore , MXFP4 , UE8M0 , 九九乘法表比喻 , 二级市场 , 人工智能 , 华为升腾 , 国产算力芯片 , 国运级产品 , 寒武纪 , 工具调用 , 技术脱钩 , 技术路线之争 , 摩尔线程 , 概念股 , 模型量化 , 混合精度训练 , 矩阵乘法 , 科技评论 , 老范讲故事 , 股票投资 , 英伟达 , 裹小脚比喻 , 计算精度 , 谷歌TPU , 资本市场 , 马赛克比喻
VIDEO
Deepseek V3.1发布,很多人应该都有疑问,UE8M0到底是个什么东西?这个国运级的大模型,到底有没有翻车呢?
大家好,欢迎收听老范讲故事的YouTube频道 。
DeepSeek V3.1发布,为什么会墙内开花墙外香呢?大家说这东西在国外也没多火。咱们讲的墙内开花墙外香,并不是说国外火,而是在圈外火。什么意思呢?就是在真正大模型圈里,其实大家并不怎么说这个事,但是在炒股票的这帮人面前,一下就火了,国产算力芯片一把就飞了。
到底是一个什么样的情况?首先呢,Deepseek V3.1在性能上其实并没有特别显著的提升,所以一帮真正去研究大模型的人,或者去研究AI的人,只能在那尬吹,说这个好像强了一点,那个好像强了一点,但其实都并不明显。它的编程能力呢,确实应该有所上升吧,但是你说现在就可以吊打Claude Sonic 4,这个我觉得有些言过其实了。上下文现在是128K了,在Deepseek去年12月份发布的V3版本以及1月份发布的R1版本的时候呢,它的上下文都是64K的。到V30324和R10528这两个版本呢,就已经升级到128K了,所以这一次的V3.1依然是128K。工具调用上应该是真的增强了,比原来的V3增强了,也更加符合AI agent的一个需求,这个就是他的一个主要的优势。
More
8 月 18
Luke Fan AIGC , 华为很厉害 , 英伟达,NVIDIA,黄教主,GPU AI Agent , AI芯片 , AI训练 , AMD , Anthropic , B100 , Claude 4 , CUDA , DeepSeek , Deepseek R2 , Function Call , Gemini , Google , GPT-5 , Grok 4 , H100 , H20 , H800 , Kimi , Llama 4 , Meta , NVIDIA , OpenAI , TPU , XAI , 中美科技战 , 人工智能 , 传闻 , 千问 , 升腾910C , 华为 , 华为升腾 , 国产替代 , 国产芯片 , 大模型 , 大模型训练 , 字节跳动 , 开源 , 技术瓶颈 , 推理 , 散热问题 , 浸没式液冷 , 液冷 , 深度求索 , 百度 , 算力 , 腾讯 , 芯片战争 , 英伟达 , 辟谣 , 金融时报报道 , 难产
VIDEO
8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。
虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。
国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。
More
7 月 29
Luke Fan AIGC , 华为很厉害 99米长的枪 , AI推理 , AI芯片 , AMD MI300 , CUDA , GB200 , H100 , Hugging Face , MindSpore , NPU , NVL72 , PyTorch , TensorFlow , 中美科技战 , 人工智能 (AI) , 优缺点分析 , 信创产业 , 光模块 , 兼容性 , 升腾384超节点 , 升腾910C , 华为 , 国产替代 , 国产芯片 , 大模型训练 , 工程实现 , 性能评测 , 成本与电费 , 技术封锁 , 数据中心 , 服务器集群 , 水冷散热 , 科技评论 , 稳定性 , 突破封锁 , 算力 , 老范讲故事 , 自主可控 , 芯片禁运 , 英伟达 (Nvidia) , 谷歌TPU , 软件生态 , 达芬奇架构 , 高功耗 , 鲲鹏920
VIDEO
遥遥领先的华为升腾384超节点,是不是又立功了?
大家好,欢迎收听老范讲故事的YouTube频道 。
上海人工智能大会上,有一个镇场之宝,就是华为升腾384超节点。叫这个名字很怪,其实就是华为做的算力超级节点,华为云矩阵。384超节点这个东西,从外边看上去呢,像一堵墙一样,反正摆在厂子里头也确实比较唬人,而且也很昂贵。
很多人就兴奋了,说我们是不是又打破了西方的垄断呢?西方人对我们禁运,不给我们卖英伟达最好的芯片,我们自己造出来了。这个事到底达没达到呢?可以说部分达到了。在集群总的FP16算力上,为什么一定要强调这个?就是它在不同精度上的算力是不一样的。在FP16算力上呢,华为升腾384超节点,是介于H100和GB200组成的NVL72之间的一个算力。而这个话怎么解释呢?
现在我们去想算力,它是分三个层次的。第一个就是卡,卡这件事呢,咱肯定比不过人家,甭管你是比H100还是GB200,你根本比不过人家。第二个呢,就是叫整机,我是一台服务器。你像AMD呢,就是卖这种东西,就是我一台服务器里头有8个,他们叫MI300这样的服务器。第三种维度呢,就是说我给你卖一整个柜子,像NVL72呢,就属于整个柜子,我把72个H100或者72个GB200这样的东西,装在一个柜子里头,当成一台机器一把卖给你。
More
6 月 11
Luke Fan AIGC , Meta的故事 AI产业链 , AI伦理 , AI大模型 , AI技术 , AI投资 , AI数据 , AI算力 , DeepSeek , FTC , H100 , H800 , LLaMA , Llama 4 , Meta , OpenAI , Sam Altman , Scale AI , YC , 亚历山大王 , 亚马逊 , 华人创业 , 合成数据 , 商业分析 , 微软 , 扎克伯格 , 数据垄断 , 数据标注 , 模型微调 , 科技巨头并购 , 科技行业动态 , 科技评论 , 美国国防部 , 老范讲故事 , 自动驾驶数据 , 英伟达 , 谷歌
VIDEO
Scale AI得到了Meta超过百亿美金的投资,AI圈又热闹起来了。大家好,欢迎收听老范讲故事的YouTube频道。
Scale AI这个名字怎么好像在哪听说过呢?好像有点耳熟,对吧?他呢,有一位特别传奇的CEO,或者叫创始人吧,叫华人天才少年CEO亚历山大王。当时呢,跳出来指责DeepSeek用H100的就是他。
DeepSeek R1到底是怎么训练的?引起了广泛的关注。DeepSeek自己讲呢,我使用了2,000多块的H800就完成了训练。但是亚历山大王呢,在一次接受采访的时候就出来说了,中国实验室里边拥有的H100的数量远超大家的想象,DeepSeek自己至少有5万块H100。但是这个话呢,没有实际证据,讲完了也就完了。DeepSeek跟亚历山大王之间呢,并没有就这个事情进行认真的探讨,所以这个我们把它当成一种谣传吧。
3月份呢,DeepSeek自己再次发了声明,说他们训练的都是使用的合规的GPU,也就是允许向中国出口的这些GPU。因为如果不说这个的话,美国就有可能要求说禁止使用这玩意儿。DeepSeek就讲了说,甭管是R1也好,V3也好,训练呢都是使用的H800,或者是后面的H20这些GPU训练的。
More
6 月 11
Luke Fan AIGC , Musk传奇 AI , AIGC , AI市场泡沫 , Apple , CEO , Dojo , Elon Musk , EV市场 , FSD , GPU , H100 , NVIDIA , PCB , Tesla , Tim Cook , XAI , 上海 , 中国 , 人工智能 , 企业价值 , 企业管治 , 供应链管理 , 假消息 , 反垄断 , 反垄断调查 , 回购 , 市场竞争 , 库克 , 库存 , 戴尔 , 技术创新 , 投资决策 , 操纵证券市场 , 显卡 , 显卡算力 , 格力 , 泡沫 , 注销 , 特斯拉 , 特斯拉中国 , 特斯拉供应链 , 现金储备 , 现金流 , 盛弘科技 , 科技行业趋势 , 美国 , 股东大会 , 股东权益 , 股价 , 股价下跌 , 股票 , 股票注销 , 自动驾驶 , 自动驾驶汽车 , 芯片 , 芯片短缺 , 英伟达 , 苹果 , 营收策略 , 董明珠 , 薪资 , 超微电脑 , 超级电脑 , 销量 , 集体诉讼 , 马斯克
VIDEO
好的,让我们开始讲下一个话题。马斯克把特斯拉的1.2万块H100给了XAI,这到底是什么情况?特斯拉在6月4号的消息,是英伟达报的料。1.2万颗H100转交给了XAI,这个直接就给了,肯定是不行的。它呢,其实是插队。什么意思?就是大家现在都在排队,等着拿英伟达的H100。马斯克的两个小伙伴都在上面排队,特斯拉也在那排着,CI也在那排着。
大家知道XAI最近拿着钱了吗?所以他现在急需要这些H100。而特斯拉呢,现金其实也还有,但是稍微有些下降,现在也没有那么着急用的地方。所以说来,我这1.2万枚,本来应该是特斯拉排到队了,SAI你先拿去用吧。等这个SAI买的1.2万枚排到了以后,特斯拉再用。但实际上是干了这么个事。
那么这个事情出来了以后,大家其实没有心思管理,到底是怎么干的。特斯拉的股价是先跌为敬。这个一看,马斯克也觉得心思都这样了,不干了,对吧。咱们就直接下跌就好了。今天是6月的7号,再过一个礼拜,6月13号就是什么节点呢?特斯拉的股东大会,投票截止日期啊。他会公布结果,马斯克的薪水到底给不给他,6月13号就要出数了。现在呢,可能好多股东,像我上次连线的那个引滴购,已经寄信寄去了,说我们同意把薪水给马斯克。但是现在一堆的大股东,他们发声,有人听着吗?
More
6 月 04
Luke Fan AIGC , 英伟达,黄仁勋的故事 1.8万亿参数 , 2.7万亿美金 , AI , AIPC , AI工厂 , AI工厂时代 , AR , Blackware , COMPUTEX , GPT-4 , GPT4 , GPU , GPU技术大会 , GPU核心 , GTC , H1 , H100 , MoE , NVIDIA , NVlink , RTX , scoring low , SERVER , stable diffusion , TOKEN , TX , VR , 云计算 , 人工智能 , 内存 , 军备竞赛 , 分析 , 参数 , 参数量 , 台积电 , 合作伙伴 , 商业 , 垄断地位 , 大模型 , 工程师 , 市值 , 应用开发 , 开发者 , 微软 , 戴尔 , 技术大会 , 投资人 , 推理 , 推理能耗 , 支架 , 数据中心 , 显卡 , 机器人 , 机箱 , 模型 , 模型训练 , 游戏助手 , 版本 , 生态链 , 用户 , 硬件 , 科技 , 移动互联网 , 竞争 , 竞争对手 , 竞争者 , 算力 , 算力成本 , 算力芯片 , 缩放定律 , 股价 , 能耗 , 芯片 , 英伟达 , 苹果 , 行业秘密 , 计算机 , 计算机大会 , 训练能耗 , 设计 , 谷歌 , 贷宽 , 超威 , 车载芯片 , 软件 , 铁皮 , 黄仁勋
VIDEO
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More
6 月 04
Luke Fan AIGC AI , AIGC , AI芯片自主研发 , AMD , DC新动向 , Gemini , GPT Plus , GPT-4 , GPT-4o , GPT-6 , GPT4 , GPTS , GPU , H100 , H100算力卡 , iOS 18 , iOS18 , iPadOS18 , M2 Ultra , M2Ultra性能 , Mac Studio , MRUltra芯片应用 , OpenAI , Siri , TOKEN收费 , WWDC , WWDC2024展望 , 中国市场 , 乔布斯 , 云计算 , 产品更新策略 , 人工智能 , 付费用户 , 企业权力结构 , 免费开放 , 内存带宽需求 , 内部决策 , 功能扩大 , 合作伙伴关系 , 图像处理 , 图像识别 , 多模态 , 多模态AI模型 , 多模态交互 , 大模型 , 大模型训练 , 天威不可测管理 , 定制开发 , 对话框 , 市场竞争分析 , 技术合作风险。 , 技术规范设定 , 挤牙膏 , 推理任务 , 提姆库克 , 数据中心建设 , 斯嘉丽约翰逊 , 显卡 , 未来趋势预测 , 本地设备限制 , 李开复 , 百度 , 盛大创新院 , 端到端 , 算力中心 , 统一内存 , 翻车 , 英伟达 , 苹果 , 行业标准 , 行业标准制定者 , 计算器 , 计算器争议 , 训练大模型 , 诉讼 , 语音功能 , 语音识别 , 调用频率 , 谷歌 , 迁移成本 , 销量增长
VIDEO
大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。Open AI进一步开放了GPT-4欧的免费功能和范围,留给苹果的时间真的不多了。所以,这一个话题里我们会讲两件事。
第一个是Open AI进一步开放了很多免费用户可以使用GPT-4,主要是4欧了。另外呢,就是苹果现在的日子并不好过。虽然我们前面反复在想说,大家万众瞩目,万众期待WWDC,6月5号吧,大家都在等这一天。但是,呃,越是大家期待的事情,可能最后啊,越让大家失望。
最近Open AI呢,肯定是消息不断。为什么呢?山伯特曼本人是一个呃,政客或者说他政治手腕非常的强大。前面闹出了很多的负面,比如说伊利尔走人,超级队旗团队的负责人走人,而且这两天呢,超级队旗那个负责人已经去了anceropic,还在跟瓦解,也就是斯嘉丽约翰逊才在这打着官司。各种的负面都很多,所以呢,一定会放出很多消息来,去纠正这些负面信息啊。
More
5 月 31
Luke Fan AIGC , Musk传奇 AI , ChatGPT , Elon Musk , FSD , H100 , LAVA模型 , OpenAI , Optimus , Solocity , SpaceX , Starlink , X AI , XAI , 人工智能 , 伊隆·马斯克 , 估值 , 商业 , 商业新闻 , 多模态 , 巨型智能 , 微软 , 擎天柱 , 未来科技 , 机器人 , 特斯拉 , 特斯拉股票 , 科技 , 科技新闻 , 算力 , 股东大会 , 股票 , 自动驾驶 , 薪酬计划 , 融资 , 谷歌 , 马斯克 , 马斯克公司
VIDEO
大家好。欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲XAI。刚刚得到的60亿美金融资,是多呀还是少啊?这XAI呢,是马斯克的公司啊。这个马斯克是特别喜欢x,所以他现在把推特也改成x了啊。
XAI呢,我们首先要稍微梳理一下。它不属于特斯拉,也不属于推特,是一个独立的公司。就是马斯克下面各个公司都是独立的,他都是老大机。接口特斯拉space x Twitter SOLO city,就是做太阳能板的那个,再加上XAI啊,这都是独立的公司。
XAI呢,其实前面只提供了group,而且group呢是在呃x .com,就是原来的Twitter里边再去工作的。group现在从它的能力来说,并不比现有的这些强。在现有的各个大的模型里头,应该算是不太突出的一个。虽然它开源了,但是也没有引起任何的响动,因为它开源那个模型实在太大,绝大部分人搭不起来,也没法用。
那么在这样的一个情况下,他突然拿了60亿美金的融资,到手现金60亿美金哦,很大的一笔钱。估值一下达到了240亿美金。这个钱真的是很多呀。大家要知道,他一下就成为了全世界所有AI公司里的第二名。第一名是open AI,860亿美金。第二名呢是anceropic,是150亿美金,就是做cloud这家公司。第三名呢,是法国的Mistra,那也是微软投的啊,那是60亿美金,原来是这样的。结果现在好突然,多出一个240亿美金的公司来,他排第二,了直接排到anseropic前面去了。
More