硕鼠的博客站

范路的博客主站,时而会发些东西。

Posts Tagged ‘台积电’

高通要收购Intel,这是不是又要上演一场蛇吞象?还是说在AIPC即将到来的时候,两家不是那么强势的公司准备合并在一起,大战一下英伟达呢?

大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲高通收购Intel的事情。消息呢,是上周五突然传出来的。高通说:“哎,我准备去收购Intel了,你们自己看着办。”Intel这边目前没有做出回应,也有记者去问到了Intel中国分公司,结果说不予置评。这种不予置评呢,相对来说就比较耐人寻味了。你说这事是有的,或者说这事没有,都算是一个结论;但是不予置评呢,就是我们要再想一想。

市场的反馈也很有意思,高通的股价应声下跌。因为大家都知道,Intel这样的公司,你要把它吃下来再消化掉,这个过程是非常痛苦的,因为实在太大了。而Intel的股价呢,却稍微上涨了一些。他终于有救了,有一个挣钱的公司要来收购咱了。

Read More…

刺破AIGC泡沫的难道是英特尔吗?大家好啊,这里是老范讲故事。今天咱们来讲一讲英特尔崩了。

英特尔崩的原因其实非常非常多。有些人说,财报不及预期,亏损加大了;还有人说,下个季度的指引更差。什么叫下个季度的指引呢?就是你每次发财报的时候,会有一堆的金融机构说,我预期他要达到多少多少。你现在不超过预期,就认为是不及格,你就要去下跌。如果你超过了预期,但超过的不够多,也是不行的。如果你超过了预期,超过的姿势和方法不太对,或者各种的比例不太好,大家也不乐意。

下个季度的指引是什么呢?一般情况下,这个公司发当季的财报的时候,会说:“我下个季度大概是一个什么样。”这叫下季度指引。在下季度指引发之前,肯定还有好事者说:“来,我也给你预期一下,你下季度怎么样吧?”英特尔的下季度指引呢,更差,比这个季度亏的钱还多。

Read More…

大家好,欢迎收听老范讲故事YouTube频道。今天我们来讲一讲AM作妖,让苹果的M系列芯片可以继续在AIPC领域里头独霸天下的很长一段时间的故事。刚刚结束的WWDC,大家还看到了Apple Intelligence。有些人觉得在挤牙膏,有些人觉得很震惊,但是有一点是确认的,就是苹果演示了大量可以在本地顺畅运行的模型,以及这些模型可以跟操作系统结合在一起,极大地改进用户体验。这件事情大家还是觉得非常棒的。

那大家有没有想过,所谓的Apple Intelligence,这些可以在本地运行的模型,它的底层到底是什么啊?它的底层就是苹果的M系列芯片。所谓的苹果M系列芯片,是苹果专门为了应对PC工作,在AM的许可标准下,自己定制的一款芯片。现在我们有M1、M2、M3、M4啊,最新的是M4系列芯片。这个芯片呢,跟传统的手机芯片不一样,它的算力会更强,但是跟X86芯片也是不一样的。X86芯片的话,它的耗电啊,它的发热都是很厉害的,而M系列的芯片啊,它的耗电,它的发热都是有极大的改善。因为这种芯片本身是为移动设备开始设计的,所以很省电。在没有非常大的算力要求的时候,它可以关闭大量的核心,非常非常省电。那么省了电它就肯定不发热了嘛,你也不需要再去散热。

Read More…


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

Read More…
Close Bitnami banner
Bitnami