硕鼠的博客站

范路的博客主站,时而会发些东西。

Posts Tagged ‘NVIDIA’

埃隆·马斯克的 xAI 拿了 60 亿美金的投资,估值达到 500 亿美金,准备去追赶 OpenAI 了。他还追得上吗?

大家好,欢迎收听老范讲故事的 YouTube 频道。咱们今天来讲一讲 xAI 拿了 60 亿美金投资,追赶 OpenAI 的故事。这一轮的投资里面,英伟达、AMD 都在,还有一些上一轮的投资者。

大家注意,不是说谁想投资他谁就可以的,只有上一轮的投资者,才有资格去投资 xAI。还有哪些人呢?就是协助埃隆·马斯克去收购 Twitter 的这些人,他们是有资格去投资 xAI 的。但是有限制,协助埃隆·马斯克收购 Twitter 的这些人呢,占股不超过 25%。其他的说我是上一轮投资人,他是可以无限制地在里面去进行投资的。你说我这两个都没沾边,那对不起,这个事跟你没关系。

Read More…

刺破AIGC泡沫的难道是英特尔吗?大家好啊,这里是老范讲故事。今天咱们来讲一讲英特尔崩了。

英特尔崩的原因其实非常非常多。有些人说,财报不及预期,亏损加大了;还有人说,下个季度的指引更差。什么叫下个季度的指引呢?就是你每次发财报的时候,会有一堆的金融机构说,我预期他要达到多少多少。你现在不超过预期,就认为是不及格,你就要去下跌。如果你超过了预期,但超过的不够多,也是不行的。如果你超过了预期,超过的姿势和方法不太对,或者各种的比例不太好,大家也不乐意。

下个季度的指引是什么呢?一般情况下,这个公司发当季的财报的时候,会说:“我下个季度大概是一个什么样。”这叫下季度指引。在下季度指引发之前,肯定还有好事者说:“来,我也给你预期一下,你下季度怎么样吧?”英特尔的下季度指引呢,更差,比这个季度亏的钱还多。

Read More…

好的,让我们开始讲下一个话题。马斯克把特斯拉的1.2万块H100给了XAI,这到底是什么情况?特斯拉在6月4号的消息,是英伟达报的料。1.2万颗H100转交给了XAI,这个直接就给了,肯定是不行的。它呢,其实是插队。什么意思?就是大家现在都在排队,等着拿英伟达的H100。马斯克的两个小伙伴都在上面排队,特斯拉也在那排着,CI也在那排着。

大家知道XAI最近拿着钱了吗?所以他现在急需要这些H100。而特斯拉呢,现金其实也还有,但是稍微有些下降,现在也没有那么着急用的地方。所以说来,我这1.2万枚,本来应该是特斯拉排到队了,SAI你先拿去用吧。等这个SAI买的1.2万枚排到了以后,特斯拉再用。但实际上是干了这么个事。

那么这个事情出来了以后,大家其实没有心思管理,到底是怎么干的。特斯拉的股价是先跌为敬。这个一看,马斯克也觉得心思都这样了,不干了,对吧。咱们就直接下跌就好了。今天是6月的7号,再过一个礼拜,6月13号就是什么节点呢?特斯拉的股东大会,投票截止日期啊。他会公布结果,马斯克的薪水到底给不给他,6月13号就要出数了。现在呢,可能好多股东,像我上次连线的那个引滴购,已经寄信寄去了,说我们同意把薪水给马斯克。但是现在一堆的大股东,他们发声,有人听着吗?

Read More…


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

Read More…
Close Bitnami banner
Bitnami