妈妈说,看手机会瞎,刷短视频,会傻。佐证来了,AI大模型,刷多了垃圾信息,也会变弱智。而且事后无法恢复,伤害是不可修复的。

妈妈说,看手机会瞎,刷短视频,会傻。佐证来了,AI大模型,刷多了垃圾信息,也会变弱智。而且事后无法恢复,伤害是不可修复的。已关闭评论

大家好,欢迎收听老范讲故事的YouTube频道

德州华人学者的新发现:大模型也能得“脑腐”

德州的一群从小被妈妈们说“手机看多了会瞎”的华人发了一篇文章。德州农工大学、德州大学奥斯汀分校、普渡大学,这三个学校有8位作者联合发了一篇文章。从名字上看,有一个人是非拼音名字的,看着像个老外,其他所有人的名字,特别是一作和通讯作者的名字,都是拼音的名字,应该是华人。

那这个文章叫什么呢?叫《LLMS can get brain rot》,它的意思呢,叫做大语言模型也能得“脑腐”。就像是咱们新冠疫情以后经常说,脑子上好像总有一层雾,感觉注意力不集中,总是觉得想事情想不清楚,经常忘事情。现在说,大语言模型也可以干这件事。

首先呢,有一个简单的结论,就是给大语言模型喂垃圾数据,大语言模型就像得了脑腐一样变傻了。即使再用好的数据进行修复,中间喂过垃圾数据了,我后边一直喂好数据,可以改善,但是呢,永远无法达到原来的状态。也就是说,喂垃圾数据的这种伤害是永远不可能完全修复的。这是一个很悲观的结论。

More

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?已关闭评论

Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?

大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。

Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。

现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。

More

退出移动版