硕鼠的博客站

范路的博客主站,时而会发些东西。

Posts Tagged ‘工程师’

大一也是一年级,研一、博一也是一年级。在小猿口算上,大学生进去欺负小学生了,这到底是什么情况?

大家好,欢迎收听老范讲故事的YouTube频道。今天呢,咱们这期节目是观众点播。有一位观众在我们Discord的群里头为我提出了一个问题,问我是否要讲一讲小猿口算到底是什么情况。

当时我说我不太了解,我去了解一下。结果进去一看,不得了了!很多的大学生进去虐小学生去了。

小猿口算是一个什么样的应用呢?它其实是猿题库出的一个应用。猿题库最早的功能是拍照片找答案,比如说现在老师出了一道题,我只要拿手机把它拍下来,就可以得到解题答案。这不是后来靠GPT去算的,他们有一个巨大的题库,你拍完照后,直接就能把解题步骤解出来。甚至在高考的时候,也会有人拍高考题让它去解题。当然,所有在高考期间拍高考题要求答案的,都会快速被猿题库报告给国家教委而被抓住,所以千万不要干这个傻事。

Read More…

大家好,欢迎收听老范讲故事的 YouTube 频道。今天咱们来讲 GPT O1 发布,科技大爆发应该会到来。草莓模型终于发布了。今天我太太还问我说,这个模型发布了,对于你们这些科技圈的人来说,算是意料之外,还是算意料之中?这个事情直接把我问在那了。

其实,每一个人都希望赶快把草莓模型发出来。但是 OpenAI 从今年年初开始公布 Sora 到现在,他吹的牛有点太多了。到现在为止,这是我们真正见到的能够用的产品。虽然 GPT4O 也是能用,但完整的 GPT4O 其实到目前为止,一直没有彻底开放出来。而这个 O1 上来直接就开放了,今天早上凌晨 3 点突然上线,哐往那一挂,大家愿意用的都可以去用了。我自己也去用去了。他呢,也换了一个名字,叫 GPT-O1。所以呢,这就不是 GPT5。

未来可能会走两条路,一个是继续走这种直接进行语言生成的,而 O1 这条路,走的是深度思考,要去反思一个问题,要深思熟虑以后才去回答。所以他有可能两个路要分开走,而且两个模型可能会相互配合着使用。

Read More…

马斯克的脑机接口已经成为了人类的成神之路。大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲,在上周五,马斯克和整个脑机接口团队一起接受了8小时的访谈,都谈了些什么。时间是8月2号,名字叫做《Neuralink与人类未来》。著名的科技博主莱克斯·弗里德曼主持了这场访谈。参加访谈的有Neuralink公司的创始人埃隆·马斯克,还有他们的首席科学家DJ·SEO,以及首位Neuralink脑机接口的植入者诺兰·阿伯。

那么主要讲的是一些什么样的内容呢?首先,现在的技术还比较可笑。虽然方向是指明了,但并不是那么看起来高大上的样子。64根导线就真的是往脑子里塞线,每根线上有16个电极。这些电极是在三四个毫米的范围内进行分布。应该是一根线出去以后,有16个小电极从线里的中间插出来,这个长度三四个毫米。在这个线的周围把它分布出来,这16个电极是以200微米的间隔进行排布。这些电极的深度是3-5毫米,它真的是要插进去的,而不是说贴在上面的,是要插到我们的脑皮层里边去的,是一个有损害的手术,这个还是有点吓人的。

Read More…


大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……

说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。

Read More…
Close Bitnami banner
Bitnami