8 月 24
Luke Fan DeepSeek大模型 AI Agent , AI大模型 , AI科普 , AMD , A股 , Deepseek V3.1 , FP8 , H100 , H800 , MindSpore , MXFP4 , UE8M0 , 九九乘法表比喻 , 二级市场 , 人工智能 , 华为升腾 , 国产算力芯片 , 国运级产品 , 寒武纪 , 工具调用 , 技术脱钩 , 技术路线之争 , 摩尔线程 , 概念股 , 模型量化 , 混合精度训练 , 矩阵乘法 , 科技评论 , 老范讲故事 , 股票投资 , 英伟达 , 裹小脚比喻 , 计算精度 , 谷歌TPU , 资本市场 , 马赛克比喻
VIDEO
Deepseek V3.1发布,很多人应该都有疑问,UE8M0到底是个什么东西?这个国运级的大模型,到底有没有翻车呢?
大家好,欢迎收听老范讲故事的YouTube频道 。
DeepSeek V3.1发布,为什么会墙内开花墙外香呢?大家说这东西在国外也没多火。咱们讲的墙内开花墙外香,并不是说国外火,而是在圈外火。什么意思呢?就是在真正大模型圈里,其实大家并不怎么说这个事,但是在炒股票的这帮人面前,一下就火了,国产算力芯片一把就飞了。
到底是一个什么样的情况?首先呢,Deepseek V3.1在性能上其实并没有特别显著的提升,所以一帮真正去研究大模型的人,或者去研究AI的人,只能在那尬吹,说这个好像强了一点,那个好像强了一点,但其实都并不明显。它的编程能力呢,确实应该有所上升吧,但是你说现在就可以吊打Claude Sonic 4,这个我觉得有些言过其实了。上下文现在是128K了,在Deepseek去年12月份发布的V3版本以及1月份发布的R1版本的时候呢,它的上下文都是64K的。到V30324和R10528这两个版本呢,就已经升级到128K了,所以这一次的V3.1依然是128K。工具调用上应该是真的增强了,比原来的V3增强了,也更加符合AI agent的一个需求,这个就是他的一个主要的优势。
More
7 月 29
Luke Fan AIGC , 华为很厉害 99米长的枪 , AI推理 , AI芯片 , AMD MI300 , CUDA , GB200 , H100 , Hugging Face , MindSpore , NPU , NVL72 , PyTorch , TensorFlow , 中美科技战 , 人工智能 (AI) , 优缺点分析 , 信创产业 , 光模块 , 兼容性 , 升腾384超节点 , 升腾910C , 华为 , 国产替代 , 国产芯片 , 大模型训练 , 工程实现 , 性能评测 , 成本与电费 , 技术封锁 , 数据中心 , 服务器集群 , 水冷散热 , 科技评论 , 稳定性 , 突破封锁 , 算力 , 老范讲故事 , 自主可控 , 芯片禁运 , 英伟达 (Nvidia) , 谷歌TPU , 软件生态 , 达芬奇架构 , 高功耗 , 鲲鹏920
VIDEO
遥遥领先的华为升腾384超节点,是不是又立功了?
大家好,欢迎收听老范讲故事的YouTube频道 。
上海人工智能大会上,有一个镇场之宝,就是华为升腾384超节点。叫这个名字很怪,其实就是华为做的算力超级节点,华为云矩阵。384超节点这个东西,从外边看上去呢,像一堵墙一样,反正摆在厂子里头也确实比较唬人,而且也很昂贵。
很多人就兴奋了,说我们是不是又打破了西方的垄断呢?西方人对我们禁运,不给我们卖英伟达最好的芯片,我们自己造出来了。这个事到底达没达到呢?可以说部分达到了。在集群总的FP16算力上,为什么一定要强调这个?就是它在不同精度上的算力是不一样的。在FP16算力上呢,华为升腾384超节点,是介于H100和GB200组成的NVL72之间的一个算力。而这个话怎么解释呢?
现在我们去想算力,它是分三个层次的。第一个就是卡,卡这件事呢,咱肯定比不过人家,甭管你是比H100还是GB200,你根本比不过人家。第二个呢,就是叫整机,我是一台服务器。你像AMD呢,就是卖这种东西,就是我一台服务器里头有8个,他们叫MI300这样的服务器。第三种维度呢,就是说我给你卖一整个柜子,像NVL72呢,就属于整个柜子,我把72个H100或者72个GB200这样的东西,装在一个柜子里头,当成一台机器一把卖给你。
More
5 月 17
Luke Fan AIGC , 华为很厉害 AI , Bolan , bug , contranite , DOS攻击 , e latch , HUAWEI , image list , in bedding , inviting , LLM , MindSpore , MindX , Python , RAG , Retry , rpm限制 , sleep 6 , stable diffusion , stream输出 , time.sleep , YouTube , 人工智能 , 代码 , 企业用户 , 升腾大模型 , 华为 , 华为大模型 , 史量化 , 后台进程 , 图像生成 , 图片 RAG , 大模型 , 字节跳动 , 安卓 , 客观中立 , 嵌入 , 拉玛 , 拉玛3 , 提示搜工程 , 提示词 , 政府用户 , 昇腾 , 欺骗 , 流式输出 , 游戏 , 演示 , 状态监控 , 电商 , 真相 , 矢量空间 , 翻车 , 老范 , 老范讲故事 , 职业编程 , 萝卜急了不稀泥 , 解读 , 谷歌 , 谷歌IO , 豆包 , 通义千问 , 锁定状态 , 零一万物 , 骑士
VIDEO
大家好,
欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲华为大模型演示翻车现场。
近期呢,非常多的AI相关的项目都在进行演示和发布,特别是国内。为什么它?因为时间到了。通常每年在这个时候也会有很多发布,因为每年在这个时候会开谷歌IO,大家喜欢在谷歌IO的前后进行信息的发布啊。因为谷歌IO算是全世界程序员或者开发者的一个盛会吧。那这个前后进行信息发布的话,如果它被安卓采用了,或者再跟谷歌搭上一点关系的这种技术会有更好的发展空间。
那今年呢,还有另外一个事情,就是拉玛3发布。前面其实国产很多大模型都是跟拉玛2有千丝万缕的联系。其实当时就已经预言过,我说拉玛3出来看多长时间之后,国内的大模型会争先恐后的再更新换代一波。现在呢,这个时间点就到了。前面阿里的通1,000问2.5发布,这两天还有几个,一个是零一万物的啊,叫e latch大模型发布,然后字节跳动的豆包大模型前两天也发布了啊。这豆包大模型主打的一个便宜,对别人的价格都便宜非常多,因为大模型的价格一般是按TOKEN算的啊,一般一个汉字是一个TOKEN,大概四个字母,还是几个字母的英文单词,是一个TOKEN啊,它这个算法比较奇怪。
More