9 月 15
Luke FanAIGC AI泡沫, AI算力, IOE时代, OpenAI合作, Oracle云计算, Oracle数据库, Oracle股价暴涨, RPO, XAI, 世界首富, 云计算, 人工智能, 企业软件, 储能产品, 剩余履约义务, 博通, 去IOE, 埃隆·马斯克, 拉里·埃里森, 擎天柱机器人, 数据库迁移, 星际之门计划, 特斯拉, 百度昆仑芯片, 科技公司负债率, 科技股, 算力芯片, 美股分析, 股票回购, 自研芯片, 芯片定制, 英伟达, 财务造假历史, 阿里云
大家好,欢迎收听老范讲故事的YouTube频道。
Oracle突然暴涨,Oracle创始人拉里·埃里森在世界首富的位置上坐了一日游,突然成为首富,超过了埃隆·马斯克。其实不到一天就又掉下来了,比马斯克稍微少那么一点点。因为到第二天呢,Oracle的股价下滑了应该是6%吧,马斯克的特斯拉股价在上升,因为马斯克也在说一些话嘛,大家都在画饼。
欧美股市,特别是美国股市,跟中国股市有一个特别大的区别,就是中国股市呢,比较相信一些这种短期内的,比如说你的业绩很好。美国股市呢,会比较相信你未来三到四年的以后的一个想象空间。如果你说我未来两三年,有一个大家都能看得懂、都能够理解的方式,能够赚一大笔钱,它就会涨上去。所以Oracle的暴涨呢,就是这样的一个逻辑。
它公布了一个什么东西呢?叫RPO 400。RPO呢就是未来的一个已经签好的合同,未来的一个收益,这个是4,450亿美金,已经远远超出了它现在的这种营收。那这个4,450亿美金里头呢,OpenAI占了3,000亿,剩下的呢应该是XAI和字节。
拉里·埃里森呢是Oracle的创始人,现在呢应该是CTO,他的首席技术官。他CEO呢是有另外一个人再去担任,他在二零一几年的时候就已经从CEO的位置上退下来了。所以81岁的老头不是CEO。马斯克成首富也好,拉里·埃里森成首富也好的原因其实都很简单,就是持股比例巨大。他超过马斯克的时候,整个的Oracle市值也不到1万亿美金,但是呢,拉里·埃里森个人持股41%,直接就奔着首富就去了。
More
6 月 04
Luke FanAIGC, 英伟达,黄仁勋的故事 1.8万亿参数, 2.7万亿美金, AI, AIPC, AI工厂, AI工厂时代, AR, Blackware, COMPUTEX, GPT-4, GPT4, GPU, GPU技术大会, GPU核心, GTC, H1, H100, MoE, NVIDIA, NVlink, RTX, scoring low, SERVER, stable diffusion, TOKEN, TX, VR, 云计算, 人工智能, 内存, 军备竞赛, 分析, 参数, 参数量, 台积电, 合作伙伴, 商业, 垄断地位, 大模型, 工程师, 市值, 应用开发, 开发者, 微软, 戴尔, 技术大会, 投资人, 推理, 推理能耗, 支架, 数据中心, 显卡, 机器人, 机箱, 模型, 模型训练, 游戏助手, 版本, 生态链, 用户, 硬件, 科技, 移动互联网, 竞争, 竞争对手, 竞争者, 算力, 算力成本, 算力芯片, 缩放定律, 股价, 能耗, 芯片, 英伟达, 苹果, 行业秘密, 计算机, 计算机大会, 训练能耗, 设计, 谷歌, 贷宽, 超威, 车载芯片, 软件, 铁皮, 黄仁勋
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More