9 月 22
Luke Fan英伟达,NVIDIA,黄教主,GPU AI Hype, AI PC, AI基础设施, AI泡沫, AI芯片, Codeweave, Cohere, CPU/GPU, Figure AI, Hugging Face, Intel, NVIDIA, NVIDIA投资Intel, NVlink, 主权AI, 云计算, 人工智能, 台积电, 增发股票, 数据中心, 特斯拉擎天柱, 科技股, 算力, 美股分析, 股票市场, 芯片代工, 黄仁勋
英伟达投资英特尔,这背后到底是一个什么样的逻辑?咱们今天来分析一下。
大家好,欢迎收听《老范讲故事》的YouTube频道。
首先,咱们来讲事实的部分和市场的反应。我最先呢,是发现英特尔暴涨,因为美股嘛,它是在晚上折腾的。我早上起来一看手机,当时爆出来,应该是最高峰涨了30%,实际上是涨了23%,就是跳起来有稍微往下掉一点点。
这个事情呢,是在2025年9月18号宣布的,说英伟达要投资50亿美金,认购英特尔增发的普通股。这个里头有两个字叫“增发”。一般投资呢有两种情况,第一种情况呢,叫做增发;第二种呢,叫买老股。买老股呢,就是我花了钱了,有人能够拿到这一笔钱。但是,如果是增发的话,这50亿美金就是一分不少的,会要进到英特尔的账户上去,能够拿到这笔钱的就是英特尔这个公司,没有任何一个老股东说“我可以卖掉一部分股份拿到这个钱”。所以注意“增发”这两个字,是这个交易的核心。
那么占股呢在4%左右,还需要监管的批准。因为这两家公司做什么操作的话,你万一涉及垄断什么也挺讨厌的,所以现在这个事情呢,只是刚宣布了,还等批复。英特尔直接涨了23%,英伟达直接上涨了3%点多,大概不到4%的样子。
More
8 月 27
Luke FanAIGC, Musk传奇, OpenSource 5090D), AI Agent, AI大模型, DeepSeek, Grok-2, H20, JAX, Kimi, LLaMA, Meta, MIT协议, MOE架构, NVlink, OpenAI, SGLANG, UC伯克利, XAI, YouTube频道, 上海交通大学, 中美科技, 人工智能, 全球协作, 华为 (盘古大模型), 商业许可, 尹良生, 巨硬 (Gigabrain), 开源, 开源生态, 开源许可 (License), 微软 (Microsoft), 技术借鉴, 技术科普, 抄袭争议, 显卡要求 (H800, 智谱, 深度解析, 百度, 科技评论, 算力, 老范讲故事, 自主研发, 苹果 (Apple), 行业内幕, 谷歌 (Google), 郑连敏, 部署难度, 阿帕奇2.0, 马斯克, 高性能计算
马斯克终于开源了他的Grok-2。虽迟但到,这背后隐藏着哪些不为人知的秘密呢?
大家好,欢迎收听老范讲故事的YouTube频道。
马斯克最终还是开源了他的Grok-2。原来我们还嘲笑过他,Grok-1开源完了,往那一扔就再也不管它了,有任何人提问题,你也不说什么。Grok 4都出来了,现在Grok 2都没开源出来。马斯克说:“那我们下周开源。”当时是这么讲的。然而下周完了以后,好像还是又等了那么一段时间,稍微晚了这么几天吧,Grok 2最终还是开源出来了。而且承诺呢,6个月之内,或者说在年底之前吧,有可能会去开源Grok 3。但是马斯克的话嘛,大家相信,就是他说了的事会做,但是未必按时间做。
马斯克的开源呢,只能算是符合非常广义的开源。这话什么意思呢?开源也是分原教旨主义者的,他们是肯定不会认可马斯克在开源的。第一个,马斯克不是当时发布产品马上开源,而是要过一段时间,甚至是过了一年多才去开源。而且现在他开源出来的这个版本,远远落后于当前主流模型。当然Grok 2呢也不算特别落后,它在当时刚推出的时候,应该是跟GPT-4不相上下的一个水平,但是跟后边4O,以及后边O1、O2这些东西就没法比了。跟当前的主流模型,像什么GPT-5、Grok-4、Claude 4或者是Gemini 2.5这些,它是比不过的。
More
6 月 17
Luke FanAIGC, 华为很厉害, 英伟达,NVIDIA,黄教主,GPU AI芯片, AI芯片之争, CUDA, EDA软件, NVlink, 专利壁垒, 中美关系, 中美科技战, 乙烷, 人工智能 (AI), 任正非, 伦敦贸易会谈, 供应链安全, 光刻机, 出口管制, 华为, 国产替代, 国际关系, 平台效应, 开发者生态, 技术制裁, 技术革命, 新能源汽车, 日内瓦协议, 时事解读, 昇腾芯片, 法制化市场化, 生态与标准之争, 电力优势, 石墨, 科技分析, 稀土, 统一大市场, 老范讲故事, 芯片封锁, 英伟达 (Nvidia), 观点输出, 财经评论, 贸易战, 逆向工程, 高性能计算, 黄仁勋
黄仁勋与任正非的隔空对话:AI芯片之争。中美伦敦贸易会谈——谁都没说,但谁都真正关心的话题。
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲任正非的人民日报文章,以及黄仁勋给他的回复。6月10号头版头条占了1/3的版面,叫《国家越开放,会促使我们更加进步——对话任正非》。这样的一篇文章登上了人民日报的头版。这个排版的艺术要注意,人民日报呢,一般头版上最多是给你个标题,或者写一小段,后边就跳转到多少版面去了。直接占1/3版面写这样的一篇文章的话,这个是要表明一个态度。而且很重要的是时间点,6月10号这篇文章刷出来的。这是个什么时间点呢?中美伦敦会谈是6月9号到6月13号,这是中美伦敦会谈的第二天。把这样的一篇文章给刷到人民日报头版上去了,所以这个也是我们表明的一个态度:就是你卡我吧,我告诉你卡了我以后会怎么样。
那任正非说了些什么呢?第一个,没有想过,想也没有用。不去想困难,干就完了,一步一步往前走。这是一个大的重点。我记得原来有一本小说叫《绝代双骄》,有人问他说,都遇到这样的难事了,你咋不发愁呢?当时那个主角应该叫江小鱼,他的经典回复是:如果发愁能够有用的话,我早就发愁去了。所以任正非呢,现在也是讲的干就完了,你想这玩意也白想。
More
6 月 04
Luke FanAIGC, 英伟达,黄仁勋的故事 1.8万亿参数, 2.7万亿美金, AI, AIPC, AI工厂, AI工厂时代, AR, Blackware, COMPUTEX, GPT-4, GPT4, GPU, GPU技术大会, GPU核心, GTC, H1, H100, MoE, NVIDIA, NVlink, RTX, scoring low, SERVER, stable diffusion, TOKEN, TX, VR, 云计算, 人工智能, 内存, 军备竞赛, 分析, 参数, 参数量, 台积电, 合作伙伴, 商业, 垄断地位, 大模型, 工程师, 市值, 应用开发, 开发者, 微软, 戴尔, 技术大会, 投资人, 推理, 推理能耗, 支架, 数据中心, 显卡, 机器人, 机箱, 模型, 模型训练, 游戏助手, 版本, 生态链, 用户, 硬件, 科技, 移动互联网, 竞争, 竞争对手, 竞争者, 算力, 算力成本, 算力芯片, 缩放定律, 股价, 能耗, 芯片, 英伟达, 苹果, 行业秘密, 计算机, 计算机大会, 训练能耗, 设计, 谷歌, 贷宽, 超威, 车载芯片, 软件, 铁皮, 黄仁勋
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More