2 月 28
Luke FanApple的故事, Trump风暴 5000亿美金, AI, Apple Intelligence, Apple TV+, DeepSeek, Meta, M系列芯片, OpenAI, PCC, XAI, YouTube频道, 东南亚, 中国制造, 中美贸易, 供应链, 全球化, 关税, 分红, 制造业回流, 加利福尼亚设计, 加拿大, 华尔街, 印度制造, 台积电, 员工数, 商业策略, 基带芯片, 墨西哥, 好莱坞, 富士康, 就业, 库克, 影视制作, 投资, 拜登, 政治博弈, 数据中心, 显卡, 流媒体, 特斯拉, 特朗普, 百度, 盘前股价, 研发中心, 私有云计算机, 科技巨头, 经济影响, 美国制造, 美塔, 老分讲故事, 股票回购, 芯片制造, 英伟达, 苹果, 苹果生态, 裁员, 设计, 谷歌, 资本支出, 越南制造, 阿里
苹果要在美国投资5,000亿美金以报效懂王。大家好,欢迎收听老分讲故事的YouTube频道。这个消息呢,是2月24号的消息。苹果准备在未来四年在美国增加5,000亿美金的投资,并在美国增加2万个就业机会。这个消息宣布以后呢,盘前股价下跌了1.31%,开盘以后呢又重新涨回来,还涨了1%上去。大家注意,像苹果这样的公司,它的盘子是很大的,这个1%上下是一个很巨大的数字。
那么,为什么要去投效懂王呢?因为懂王要挥起关税大棒,而且要奔着苹果脑袋上砸。什么意思?懂王说了,我这个关税,任何美国企业都不能豁免。原来你说我是美国公司,我从中国造了iPhone,我到美国来卖了,你要稍微的睁一只眼闭一只眼。懂王现在专门说了,我不对你睁一只眼闭一只眼,中国生产的苹果设备进入美国市场也要去加征关税。但是对于保税区这个事情怎么算,我没有特别研究,咱们不去细究了。越南生产的苹果产品呢,现在并没有明确的规定,但是对等关税嘛,如果越南对美国商品加税,那么必然是对等报复。
More
6 月 04
Luke FanAIGC, 英伟达,黄仁勋的故事 1.8万亿参数, 2.7万亿美金, AI, AIPC, AI工厂, AI工厂时代, AR, Blackware, COMPUTEX, GPT-4, GPT4, GPU, GPU技术大会, GPU核心, GTC, H1, H100, MoE, NVIDIA, NVlink, RTX, scoring low, SERVER, stable diffusion, TOKEN, TX, VR, 云计算, 人工智能, 内存, 军备竞赛, 分析, 参数, 参数量, 台积电, 合作伙伴, 商业, 垄断地位, 大模型, 工程师, 市值, 应用开发, 开发者, 微软, 戴尔, 技术大会, 投资人, 推理, 推理能耗, 支架, 数据中心, 显卡, 机器人, 机箱, 模型, 模型训练, 游戏助手, 版本, 生态链, 用户, 硬件, 科技, 移动互联网, 竞争, 竞争对手, 竞争者, 算力, 算力成本, 算力芯片, 缩放定律, 股价, 能耗, 芯片, 英伟达, 苹果, 行业秘密, 计算机, 计算机大会, 训练能耗, 设计, 谷歌, 贷宽, 超威, 车载芯片, 软件, 铁皮, 黄仁勋
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More