AI教母李飞飞万字长文戳破LLM泡沫:生成语言只是起点,无法理解真实世界才是致命伤|空间智能 Fei-Fei Li 世界模型 人工智能 AI的下一个前沿

AI教母李飞飞万字长文戳破LLM泡沫:生成语言只是起点,无法理解真实世界才是致命伤|空间智能 Fei-Fei Li 世界模型 人工智能 AI的下一个前沿已关闭评论

李飞飞的万字长文,讲述空间智能的未来

大家好,欢迎收听老范讲故事的YouTube频道。

李飞飞呢,最近发了一篇文章,指出AI的下一个方向。AI的下一个发展方向就是空间智能。这个文章呢是11月11日发表的,非常非常长,上万字。标题呢是《从词语到世界:空间智能是AI的下一个前沿》。教授的长文,读起来还是稍微有一点点吃力,我还是认真地把整个文章读完了。教授呢,未必能够准确预测未来,那是算命先生的工作。但是,教授对未来的预测,还是值得认真研读一下的,特别是这位教授,还是当前AI浪潮的开拓者之一。

文章的结构之美:值得学习的写作范本

第一个特点就是非常的工整。她的文章结构,大家需要去学习一下。哪怕你说我看不懂这文章说什么,还是应该学习一下人家文章怎么写的。上来第一件事是提出问题:现在有些什么样的问题?然后呢,是核心概念的一些解释,对吧?啥叫空间智能?再往后呢,是方法论的一个架构:我准备怎么干?然后呢,是技术实施的一些细节和方法。最后呢,是应用的路径:我这个实施了以后能干嘛使?它是这样的一个完整架构。

每一个大标题下面呢,会有3到5个小标题,每个小标题下面,均匀地分布着描述和说明。它不会像有些人写文章,在某一个小标题下写非常长的内容,其它的显得干巴巴的,不会是这样的,很均匀。学习一下教授的写作方法,还是非常非常有价值的。

More

DeepSeek R2难产真相!金融时报爆料:华为昇腾芯片训练失败,揭秘国产AI算力的“卡脖子”困境。

DeepSeek R2难产真相!金融时报爆料:华为昇腾芯片训练失败,揭秘国产AI算力的“卡脖子”困境。已关闭评论

8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。

虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。

国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。

More

黄仁勋AI时代英伟达GPU革命:一场市值2.7万亿美金的狂欢,COMPUTEX 2024重磅发布Blackware GPU,1.8万亿参数GPT4揭秘!

黄仁勋AI时代英伟达GPU革命:一场市值2.7万亿美金的狂欢,COMPUTEX 2024重磅发布Blackware GPU,1.8万亿参数GPT4揭秘!已关闭评论


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

More