硕鼠的博客站

范路的博客主站,时而会发些东西。

Category : 英伟达,黄仁勋的故事

到底有哪些企业在购买英伟达的显卡?这个跟大家想象的可能不太一样。中国只有这些显卡吗?跟大家想的可能也不太一样。另一方面,中美之间的AI差距到底在什么地方?

大家好,这里是老范讲故事的YouTube频道。最近网上流传了一张图,直接把大家给看懵了。这张图写的是什么呢?就是到底哪些数据中心买家在买英伟达的显卡。我们不算是大家打游戏去买4090,或者是普通的一些小公司买了一堆4090去干活,这不算。我们算的是数据中心的,这到底是什么人在买?

在这个图上显示,在2023年Q2、Q3到Q4,实际上每一个季度,中国人从英伟达买的显卡数量都是快速上升的。到2024年呢,有所下降。2024年Q1的话,大概比2023年的Q2还要再少一些,但是到Q2继续在上升,应该是达到2023年Q2的一个同等水平了。

Read More…


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

Read More…
Close Bitnami banner
Bitnami