8 月 24
Luke Fan DeepSeek大模型 AI Agent , AI大模型 , AI科普 , AMD , A股 , Deepseek V3.1 , FP8 , H100 , H800 , MindSpore , MXFP4 , UE8M0 , 九九乘法表比喻 , 二级市场 , 人工智能 , 华为升腾 , 国产算力芯片 , 国运级产品 , 寒武纪 , 工具调用 , 技术脱钩 , 技术路线之争 , 摩尔线程 , 概念股 , 模型量化 , 混合精度训练 , 矩阵乘法 , 科技评论 , 老范讲故事 , 股票投资 , 英伟达 , 裹小脚比喻 , 计算精度 , 谷歌TPU , 资本市场 , 马赛克比喻
Deepseek V3.1发布,很多人应该都有疑问,UE8M0到底是个什么东西?这个国运级的大模型,到底有没有翻车呢?
大家好,欢迎收听老范讲故事的YouTube频道 。
DeepSeek V3.1发布,为什么会墙内开花墙外香呢?大家说这东西在国外也没多火。咱们讲的墙内开花墙外香,并不是说国外火,而是在圈外火。什么意思呢?就是在真正大模型圈里,其实大家并不怎么说这个事,但是在炒股票的这帮人面前,一下就火了,国产算力芯片一把就飞了。
到底是一个什么样的情况?首先呢,Deepseek V3.1在性能上其实并没有特别显著的提升,所以一帮真正去研究大模型的人,或者去研究AI的人,只能在那尬吹,说这个好像强了一点,那个好像强了一点,但其实都并不明显。它的编程能力呢,确实应该有所上升吧,但是你说现在就可以吊打Claude Sonic 4,这个我觉得有些言过其实了。上下文现在是128K了,在Deepseek去年12月份发布的V3版本以及1月份发布的R1版本的时候呢,它的上下文都是64K的。到V30324和R10528这两个版本呢,就已经升级到128K了,所以这一次的V3.1依然是128K。工具调用上应该是真的增强了,比原来的V3增强了,也更加符合AI agent的一个需求,这个就是他的一个主要的优势。
More
7 月 29
Luke Fan AIGC , 华为很厉害 99米长的枪 , AI推理 , AI芯片 , AMD MI300 , CUDA , GB200 , H100 , Hugging Face , MindSpore , NPU , NVL72 , PyTorch , TensorFlow , 中美科技战 , 人工智能 (AI) , 优缺点分析 , 信创产业 , 光模块 , 兼容性 , 升腾384超节点 , 升腾910C , 华为 , 国产替代 , 国产芯片 , 大模型训练 , 工程实现 , 性能评测 , 成本与电费 , 技术封锁 , 数据中心 , 服务器集群 , 水冷散热 , 科技评论 , 稳定性 , 突破封锁 , 算力 , 老范讲故事 , 自主可控 , 芯片禁运 , 英伟达 (Nvidia) , 谷歌TPU , 软件生态 , 达芬奇架构 , 高功耗 , 鲲鹏920
遥遥领先的华为升腾384超节点,是不是又立功了?
大家好,欢迎收听老范讲故事的YouTube频道 。
上海人工智能大会上,有一个镇场之宝,就是华为升腾384超节点。叫这个名字很怪,其实就是华为做的算力超级节点,华为云矩阵。384超节点这个东西,从外边看上去呢,像一堵墙一样,反正摆在厂子里头也确实比较唬人,而且也很昂贵。
很多人就兴奋了,说我们是不是又打破了西方的垄断呢?西方人对我们禁运,不给我们卖英伟达最好的芯片,我们自己造出来了。这个事到底达没达到呢?可以说部分达到了。在集群总的FP16算力上,为什么一定要强调这个?就是它在不同精度上的算力是不一样的。在FP16算力上呢,华为升腾384超节点,是介于H100和GB200组成的NVL72之间的一个算力。而这个话怎么解释呢?
现在我们去想算力,它是分三个层次的。第一个就是卡,卡这件事呢,咱肯定比不过人家,甭管你是比H100还是GB200,你根本比不过人家。第二个呢,就是叫整机,我是一台服务器。你像AMD呢,就是卖这种东西,就是我一台服务器里头有8个,他们叫MI300这样的服务器。第三种维度呢,就是说我给你卖一整个柜子,像NVL72呢,就属于整个柜子,我把72个H100或者72个GB200这样的东西,装在一个柜子里头,当成一台机器一把卖给你。
More
5 月 27
Luke Fan 芯片的故事 , 雷军、小米 3nm工艺 , AI算力 , ARM CSS , ARM GPU (Immortalis-G925) , ARM公司 , ARM背刺小米 , CPU核心数 (Cortex-X925) , ISP影像 , NPU芯片 , 三星Exynos芯片 , 云计算芯片 , 亚马逊AWS , 供应链管理 , 公版方案 , 删帖事件 , 半导体技术 , 华为麒麟海思 , 台积电代工 , 商业合作模式 , 国产芯片现状 , 处理器性能 , 小米玄戒O1 , 小米生态链 , 小米科技 , 小米空气净化器抄袭争议 , 小米芯片部门 , 巴慕达 , 微软Azure , 性价比策略 , 手机SoC , 手机摄影增强 , 手机芯片市场 , 电源管理IC , 知识产权版税 , 研发周期缩短 , 科技圈爆料 , 科技巨头动态 , 科技数码 , 科技评论 , 老范讲故事YouTube , 联发科天玑 , 自主研发争议 , 芯片定制 , 芯片市场格局 , 芯片成本 , 芯片设计服务 , 苹果A系M系芯片 , 行业分析 , 谷歌TPU , 阿里云 , 雷军发布会 , 高通骁龙对比
小米玄戒O1芯片被ARM官方给背刺了。这到底是不是一个定制的套餐项目呢?
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲ARM官网背刺小米玄戒O1的事情。我们这里指的是ARM国际的官网,不是ARM中国的官网。它呢上面发了一篇文章:《小米玄戒O1定制芯片,由ARM计算平台赋能》。这篇文章呢5月22日上线,也就是小米雷军5月22号开发布会以后,他就直接上线了。那就是来表功的嘛,说你看小米玄戒O1做出来了,我好厉害,在我的帮助下他做出来了。
但是马上就引起了网上舆论的抨击,说小米玄戒你压根啥也没做,你原来是用的ARM的这种定制套餐。你到底投入了没有?你到底研发了没有?这个声音一出来以后,小米只能是说:我这真的是自己研发的,我花了好多好多钱研发的。那ARM也没有任何办法,到5月23号直接把这篇文章删了。这就是咱们今儿要讲这故事的开头。
More
1 月 05
Luke Fan 英伟达,NVIDIA,黄教主,GPU AI云算力 , AI开源软件 , AI技术标准 , AI控制面板 , AI算力平台 , AI算力管理 , AI脚本调度 , AI训练模型 , AMD显卡 , GPU任务调度 , GPU市场 , GPU显卡 , GPU算力优化 , GPU调度 , GPU调度工具 , GPU资源管理 , Intel显卡 , RunAI , RunAI内部协议 , RunAI开源 , RunAI竞争力 , 中国显卡市场 , 中小企业算力调度 , 云计算 , 云计算兼容性 , 云计算厂商 , 亚马逊算力 , 升腾910 , 反垄断调查 , 国产AI显卡 , 垄断竞争 , 大型云厂商 , 开源GPU生态 , 开源代码 , 开源战略 , 影棚调度类比 , 微软GPU , 摩尔线程 , 数据中心GPU , 无人驾驶算力需求 , 显卡国产化 , 显卡市场 , 显卡市场策略 , 显卡开源驱动 , 显卡管理工具 , 显卡调试工具 , 显卡资源优化 , 显卡部署策略 , 显卡驱动兼容 , 显卡驱动开源 , 服务器资源管理 , 混合云算力 , 算力中心 , 算力优化 , 算力整合 , 算力管理技术 , 算力调度软件 , 自建算力中心 , 英伟达 , 英伟达中国市场 , 英伟达云计算 , 英伟达全球布局 , 英伟达垄断 , 英伟达开源 , 英伟达收购RunAI , 英伟达显卡兼容性 , 英伟达显卡市场份额 , 英伟达显卡开源 , 谷歌TPU , 跨品牌GPU调度 , 运行效率提升 , 银行算力中心
英伟达收购了一家软件公司,叫RunAI,转手就把它收购的软件公司产品直接开源了。这到底是想要干什么呢?大家好,欢迎收听老范讲故事的YouTube频道。
还记得前面英伟达接受中国反垄断调查那个事吗?就是当时他收购了一个网络相关的公司。当时收购的时候,大家提出了条件,说你收购了以后不可以去进行捆绑销售,不可以说你必须要选择英伟达家的产品,选择你们家收购的这个网络产品,必须要有这样的承诺。但是最后承诺并没有实现。所以呢,现在英伟达在遭到很多国家的反垄断调查。
那么这一次呢,整了个RunAI,一个以色列的软件公司,上手就开源了。他到底想干嘛?是不是为了避免这种反垄断调查,还是为了什么呢?这个咱们今天解释一下。
More
8 月 06
Luke Fan AIGC , Meta的故事 AI信息流整合 , AI助手 , AI助手平台 , AI助手应用 , AI助手模型 , AI回复 , AI客服 , AI开源 , AI总结信息 , AI技术 , AI技术应用 , AI推荐算法 , AI机器人 , AI演示 , AI社交助手 , AI社区 , AI社区互动 , AI视觉分割 , AI触手 , AI辅助工具 , AI配置工程师 , AI革命 , AI风向 , AR , Hugging Face , IBM , Lightining AI , Meta , Meta的贡献 , OCP , Open Compute Project , PyTorch , Segment Everything Two , SIGGRAPH大会 , TPU , VR , 互联网底层 , 人工智能 , 信息分层 , 信息流 , 信息流混合 , 信息爆炸 , 信息过载 , 分拆视频内容 , 华为 , 多平台AI , 大模型 , 层次化处理 , 平台无壁垒 , 底层逻辑 , 开源技术 , 开源模型 , 开源生态 , 扎克伯格 , 推荐算法 , 推荐系统 , 显卡 , 显卡价格 , 显卡公司 , 显卡适配 , 法律AI , 监控提升 , 监控摄像头 , 社交媒体AI , 科技发展 , 科技巨头 , 算法创新 , 统一推荐系统 , 编程AI , 英伟达 , 苹果 , 虚拟AI助理 , 虚拟形象 , 视觉识别 , 视频分析 , 视频搜索 , 计算机图像识别 , 谷歌TPU , 软件开发 , 黄仁勋
扎克伯格跟黄仁勋凑一块,除了换皮衣,还讲了点什么呢?他们是在SIGGRAPH大会上进行的访谈。黄仁勋是访谈主持人,而扎克伯格是被邀请的嘉宾。因此,在他们的访谈中,扎克伯格是逗哏的,黄仁勋是捧哏的,这一点首先要搞清楚。
这一次访谈,主要是扎克伯格在输出。SIGGRAPH大会是一个历史非常悠久的大会,叫计算机图形图像特别兴趣小组(Special Interest Group on Computer Graphics),小组成立于1967年,1974年第一次开会。今年是第50届,参会的人中有90%都是博士。当我看到这个消息时,一开始想,黄仁勋应该是个博士吧?扎克伯格是中途退学的。后来查了一下,发现并不是。黄仁勋是硕士,而扎克伯格是2002年入学于哈佛的心理学和计算机科学专业,2004年辍学,实际上上了两年学,之后在2017年被哈佛授予了荣誉法学博士学位。他好像跟某位伟人的学位差不多。
More