7 月 29
Luke Fan AIGC , 华为很厉害 99米长的枪 , AI推理 , AI芯片 , AMD MI300 , CUDA , GB200 , H100 , Hugging Face , MindSpore , NPU , NVL72 , PyTorch , TensorFlow , 中美科技战 , 人工智能 (AI) , 优缺点分析 , 信创产业 , 光模块 , 兼容性 , 升腾384超节点 , 升腾910C , 华为 , 国产替代 , 国产芯片 , 大模型训练 , 工程实现 , 性能评测 , 成本与电费 , 技术封锁 , 数据中心 , 服务器集群 , 水冷散热 , 科技评论 , 稳定性 , 突破封锁 , 算力 , 老范讲故事 , 自主可控 , 芯片禁运 , 英伟达 (Nvidia) , 谷歌TPU , 软件生态 , 达芬奇架构 , 高功耗 , 鲲鹏920
VIDEO
遥遥领先的华为升腾384超节点,是不是又立功了?
大家好,欢迎收听老范讲故事的YouTube频道 。
上海人工智能大会上,有一个镇场之宝,就是华为升腾384超节点。叫这个名字很怪,其实就是华为做的算力超级节点,华为云矩阵。384超节点这个东西,从外边看上去呢,像一堵墙一样,反正摆在厂子里头也确实比较唬人,而且也很昂贵。
很多人就兴奋了,说我们是不是又打破了西方的垄断呢?西方人对我们禁运,不给我们卖英伟达最好的芯片,我们自己造出来了。这个事到底达没达到呢?可以说部分达到了。在集群总的FP16算力上,为什么一定要强调这个?就是它在不同精度上的算力是不一样的。在FP16算力上呢,华为升腾384超节点,是介于H100和GB200组成的NVL72之间的一个算力。而这个话怎么解释呢?
现在我们去想算力,它是分三个层次的。第一个就是卡,卡这件事呢,咱肯定比不过人家,甭管你是比H100还是GB200,你根本比不过人家。第二个呢,就是叫整机,我是一台服务器。你像AMD呢,就是卖这种东西,就是我一台服务器里头有8个,他们叫MI300这样的服务器。第三种维度呢,就是说我给你卖一整个柜子,像NVL72呢,就属于整个柜子,我把72个H100或者72个GB200这样的东西,装在一个柜子里头,当成一台机器一把卖给你。
More
7 月 07
Luke Fan AIGC , 华为很厉害 AI伦理 , AI大模型 , AI抄袭 , Apache 2.0 , GitHub事件 , honest AGI , Hugging Face , Llama 3.1 , LLaMA-fingerprint , LLM , Meta , OpenAI , POWERED by盘古 , PyTorch , 人工智能 , 企业公关危机 , 华为 , 品牌形象 , 增量训练 , 大模型套壳 , 大模型抄袭 , 大模型指纹算法 , 大语言模型 , 字节跳动 , 开源 , 开源争议 , 开源协议 , 开源文化 , 归属声明 , 抄袭指控 , 昇腾芯片 , 模型相似度 , 欧盟禁用条款 , 民族主义情绪 , 注意力机制 , 混合专家模型(MOE) , 版权声明 , 瓜田李下 , 盘古大模型 , 盘古开源协议 , 科技伦理 , 科技公司纠纷 , 科技评论 , 老范讲故事 , 自主研发 , 舆论战 , 英伟达芯片 , 观点分析 , 许可证 , 豆包 , 辟谣 , 通义千问 , 遥遥领先 , 闭源 , 阿里巴巴
VIDEO
华为开源了盘古大模型,被指抄袭。华为到底冤不冤呢?
大家好,欢迎收听老范讲故事的YouTube频道 。华为开源了他的盘古大模型,它的模型呢,反正依然是山海经风格的起名。原来呢,没有开源,都是说我们内部开发内部使用,或者说我们专门供政府和大企业来使用。但是现在发现开源这条路不错,那我也开源吧。结果开源了以后就出事了。
它是6月30号在GitHub上就直接开源了,号称呢是在升腾芯片上训练出来的大模型。以前呢,我们的大模型大多是在英伟达芯片上训练,但是呢可以在升腾的芯片上去做推理。现在说,我直接在升腾芯片上做训练,也算是一种小的突破吧。
他呢,其实发了两个模型:一个是72B的MOE的模型,就是混合专家模型;然后呢,有一个70B的稠密模型。做呢做完了,但是准备开源还需要准备一段时间。开源这件事,不是说你做完了,把它扔出来就完了,还是有很大的工作量需要干的。比如说你要去写开源手册、许可证,这个还不是那么容易,还在做。
More
8 月 06
Luke Fan AIGC , Meta的故事 AI信息流整合 , AI助手 , AI助手平台 , AI助手应用 , AI助手模型 , AI回复 , AI客服 , AI开源 , AI总结信息 , AI技术 , AI技术应用 , AI推荐算法 , AI机器人 , AI演示 , AI社交助手 , AI社区 , AI社区互动 , AI视觉分割 , AI触手 , AI辅助工具 , AI配置工程师 , AI革命 , AI风向 , AR , Hugging Face , IBM , Lightining AI , Meta , Meta的贡献 , OCP , Open Compute Project , PyTorch , Segment Everything Two , SIGGRAPH大会 , TPU , VR , 互联网底层 , 人工智能 , 信息分层 , 信息流 , 信息流混合 , 信息爆炸 , 信息过载 , 分拆视频内容 , 华为 , 多平台AI , 大模型 , 层次化处理 , 平台无壁垒 , 底层逻辑 , 开源技术 , 开源模型 , 开源生态 , 扎克伯格 , 推荐算法 , 推荐系统 , 显卡 , 显卡价格 , 显卡公司 , 显卡适配 , 法律AI , 监控提升 , 监控摄像头 , 社交媒体AI , 科技发展 , 科技巨头 , 算法创新 , 统一推荐系统 , 编程AI , 英伟达 , 苹果 , 虚拟AI助理 , 虚拟形象 , 视觉识别 , 视频分析 , 视频搜索 , 计算机图像识别 , 谷歌TPU , 软件开发 , 黄仁勋
VIDEO
扎克伯格跟黄仁勋凑一块,除了换皮衣,还讲了点什么呢?他们是在SIGGRAPH大会上进行的访谈。黄仁勋是访谈主持人,而扎克伯格是被邀请的嘉宾。因此,在他们的访谈中,扎克伯格是逗哏的,黄仁勋是捧哏的,这一点首先要搞清楚。
这一次访谈,主要是扎克伯格在输出。SIGGRAPH大会是一个历史非常悠久的大会,叫计算机图形图像特别兴趣小组(Special Interest Group on Computer Graphics),小组成立于1967年,1974年第一次开会。今年是第50届,参会的人中有90%都是博士。当我看到这个消息时,一开始想,黄仁勋应该是个博士吧?扎克伯格是中途退学的。后来查了一下,发现并不是。黄仁勋是硕士,而扎克伯格是2002年入学于哈佛的心理学和计算机科学专业,2004年辍学,实际上上了两年学,之后在2017年被哈佛授予了荣誉法学博士学位。他好像跟某位伟人的学位差不多。
More