6 月 17
Luke FanAIGC, 华为很厉害, 英伟达,NVIDIA,黄教主,GPU AI芯片, AI芯片之争, CUDA, EDA软件, NVlink, 专利壁垒, 中美关系, 中美科技战, 乙烷, 人工智能 (AI), 任正非, 伦敦贸易会谈, 供应链安全, 光刻机, 出口管制, 华为, 国产替代, 国际关系, 平台效应, 开发者生态, 技术制裁, 技术革命, 新能源汽车, 日内瓦协议, 时事解读, 昇腾芯片, 法制化市场化, 生态与标准之争, 电力优势, 石墨, 科技分析, 稀土, 统一大市场, 老范讲故事, 芯片封锁, 英伟达 (Nvidia), 观点输出, 财经评论, 贸易战, 逆向工程, 高性能计算, 黄仁勋
黄仁勋与任正非的隔空对话:AI芯片之争。中美伦敦贸易会谈——谁都没说,但谁都真正关心的话题。
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲任正非的人民日报文章,以及黄仁勋给他的回复。6月10号头版头条占了1/3的版面,叫《国家越开放,会促使我们更加进步——对话任正非》。这样的一篇文章登上了人民日报的头版。这个排版的艺术要注意,人民日报呢,一般头版上最多是给你个标题,或者写一小段,后边就跳转到多少版面去了。直接占1/3版面写这样的一篇文章的话,这个是要表明一个态度。而且很重要的是时间点,6月10号这篇文章刷出来的。这是个什么时间点呢?中美伦敦会谈是6月9号到6月13号,这是中美伦敦会谈的第二天。把这样的一篇文章给刷到人民日报头版上去了,所以这个也是我们表明的一个态度:就是你卡我吧,我告诉你卡了我以后会怎么样。
那任正非说了些什么呢?第一个,没有想过,想也没有用。不去想困难,干就完了,一步一步往前走。这是一个大的重点。我记得原来有一本小说叫《绝代双骄》,有人问他说,都遇到这样的难事了,你咋不发愁呢?当时那个主角应该叫江小鱼,他的经典回复是:如果发愁能够有用的话,我早就发愁去了。所以任正非呢,现在也是讲的干就完了,你想这玩意也白想。
More
6 月 04
Luke FanAIGC, 英伟达,黄仁勋的故事 1.8万亿参数, 2.7万亿美金, AI, AIPC, AI工厂, AI工厂时代, AR, Blackware, COMPUTEX, GPT-4, GPT4, GPU, GPU技术大会, GPU核心, GTC, H1, H100, MoE, NVIDIA, NVlink, RTX, scoring low, SERVER, stable diffusion, TOKEN, TX, VR, 云计算, 人工智能, 内存, 军备竞赛, 分析, 参数, 参数量, 台积电, 合作伙伴, 商业, 垄断地位, 大模型, 工程师, 市值, 应用开发, 开发者, 微软, 戴尔, 技术大会, 投资人, 推理, 推理能耗, 支架, 数据中心, 显卡, 机器人, 机箱, 模型, 模型训练, 游戏助手, 版本, 生态链, 用户, 硬件, 科技, 移动互联网, 竞争, 竞争对手, 竞争者, 算力, 算力成本, 算力芯片, 缩放定律, 股价, 能耗, 芯片, 英伟达, 苹果, 行业秘密, 计算机, 计算机大会, 训练能耗, 设计, 谷歌, 贷宽, 超威, 车载芯片, 软件, 铁皮, 黄仁勋
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More