1 月 09
Luke FanAIGC, 英伟达,NVIDIA,黄教主,GPU, 英伟达,黄仁勋的故事 30系显卡, 40系显卡, 5070显卡, 5080显卡, 5090D显卡, 5090显卡, 50系列性能, 50系列显卡, AI主机, AI硬件选择, ARM CPU, Blackwell架构, CES发布, CUDA, GBNV Link 72, GPU, Llama3 405B, Mac mini M4, MacBook, Project DigITs, stable diffusion, 云主机显卡, 云计算, 光鲜亮丽, 大力水手4, 大模型训练, 工程师, 数据分析, 数据科学家, 显卡与大模型, 显卡与游戏, 显卡价格, 显卡兼容性问题, 显卡创新, 显卡功耗, 显卡升级, 显卡对比分析, 显卡市场, 显卡市场动态, 显卡性能, 显卡推荐, 显卡散热, 显卡构建, 显卡架构, 显卡游戏需求, 显卡的使用, 显卡的未来, 显卡科技产品, 显卡租赁, 显卡设置, 显卡购买建议, 显卡适配, 显卡金融属性, 显卡降价, 显卡需求分析, 服务器部署, 本地渲染, 机器学习, 模型训练, 游戏显卡, 游戏玩家, 硬件发展趋势, 硬件性能对比, 硬件推荐, 硬件推荐指南, 硬件用户体验, 硬件评论, 科技发展, 统一内存, 英伟达, 英伟达发布会, 高端显卡, 高级硬件, 鳄鱼皮印花夹克, 黄仁勋
黄教主已经在CES上吹响了号角,准备好钱包了没有?大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲CES上,全村最靓的仔黄仁勋。黄教主都发布了一些什么东西?我们是不是要准备好钱包去买东西了,还是说咱们稍微冷静一下?
现在AI嘛,市值最高的公司英伟达,作为英伟达的老板,黄仁勋在整个的CES大会上一定是最靓的仔。其他做AI的人,可能还没有他这么风光亮丽。为什么呢?因为CES呢叫做消费电子展,那些做云计算的人,你们靠后站。黄教主是要来发布游戏显卡的,他是来玩消费的,这个还是有很大差别的。而且整个的AIGC玩了两年多,唯一挣着钱的就只有黄教主自己了,其他人都在这赔本赚吆喝呢。所以呢,人家一定要风光亮丽的跟大家做一个演讲。
咱们先看一下皮衣教主,因为他走到哪穿个皮衣嘛。他这个皮衣呢,这一次是一件新皮衣,不是以前穿过的这些旧皮衣。这个叫Tom Ford设计的一个皮衣,这个皮衣呢叫鳄鱼皮印花皮夹克。就是我们可以看到这个皮夹克上有很多非常大的花纹,这个东西呢叫鳄鱼皮印花。就是你如果买了什么鳄鱼皮钱包或者是鳄鱼皮的皮鞋,上面就是这种大花。我还真没见过鳄鱼皮夹克,他这个皮夹克呢应该不是鳄鱼皮的,应该是牛皮的,只是呢把这个大花纹给你印上了而已。
More
9 月 06
Luke FanAIGC, 英伟达,黄仁勋的故事 4090显卡, A800显卡, AIGC, AI差距, AI进步, B W 200, BAT, Blackwell芯片, Daniel Naily, EFC, GPU采购, H20显卡, H800显卡, IBM, IOE, Oracle, Scaling law, SemiWiki, 中国企业, 中国电信, 中国移动, 中美AI对比, 云计算, 云计算机房, 人才, 光缆, 全球GPU市场, 半导体自媒体, 半导体行业, 华为, 台湾, 台湾显卡市场, 合规成本, 商业逻辑, 大基建, 央企, 字节跳动, 小公司, 巨头, 带宽资源, 应用场景, 微信聊天记录, 技术升级, 技术维护, 政府拨款, 政策解读, 数据中心, 数据中心建设, 数据训练, 数据质量, 文学作品, 新加坡, 新加坡显卡购买, 显卡需求, 比较优势, 电信运营商, 百度, 短视频, 算力云, 算力分散, 算力卡数量, 算力市场, 缩放法则, 美云计算, 腾讯, 英伟达显卡, 英伟达股价, 资源整合, 转租显卡, 阿里云
到底有哪些企业在购买英伟达的显卡?这个跟大家想象的可能不太一样。中国只有这些显卡吗?跟大家想的可能也不太一样。另一方面,中美之间的AI差距到底在什么地方?
大家好,这里是老范讲故事的YouTube频道。最近网上流传了一张图,直接把大家给看懵了。这张图写的是什么呢?就是到底哪些数据中心买家在买英伟达的显卡。我们不算是大家打游戏去买4090,或者是普通的一些小公司买了一堆4090去干活,这不算。我们算的是数据中心的,这到底是什么人在买?
在这个图上显示,在2023年Q2、Q3到Q4,实际上每一个季度,中国人从英伟达买的显卡数量都是快速上升的。到2024年呢,有所下降。2024年Q1的话,大概比2023年的Q2还要再少一些,但是到Q2继续在上升,应该是达到2023年Q2的一个同等水平了。
More
6 月 04
Luke FanAIGC, 英伟达,黄仁勋的故事 1.8万亿参数, 2.7万亿美金, AI, AIPC, AI工厂, AI工厂时代, AR, Blackware, COMPUTEX, GPT-4, GPT4, GPU, GPU技术大会, GPU核心, GTC, H1, H100, MoE, NVIDIA, NVlink, RTX, scoring low, SERVER, stable diffusion, TOKEN, TX, VR, 云计算, 人工智能, 内存, 军备竞赛, 分析, 参数, 参数量, 台积电, 合作伙伴, 商业, 垄断地位, 大模型, 工程师, 市值, 应用开发, 开发者, 微软, 戴尔, 技术大会, 投资人, 推理, 推理能耗, 支架, 数据中心, 显卡, 机器人, 机箱, 模型, 模型训练, 游戏助手, 版本, 生态链, 用户, 硬件, 科技, 移动互联网, 竞争, 竞争对手, 竞争者, 算力, 算力成本, 算力芯片, 缩放定律, 股价, 能耗, 芯片, 英伟达, 苹果, 行业秘密, 计算机, 计算机大会, 训练能耗, 设计, 谷歌, 贷宽, 超威, 车载芯片, 软件, 铁皮, 黄仁勋
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More