AI用多了人会变笨吗?深度解读AI对人类思维与独立思考的深远影响

AI用多了人会变笨吗?深度解读AI对人类思维与独立思考的深远影响已关闭评论

AI用多了人会变笨吗?

大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲MIT最新的一个研究:用AI会让人变笨。

文章的标题是“你的大脑与ChatGPT:使用人工智能助手完成论文写作任务时的认知负债积累”。说白了,就是你用ChatGPT用得越多,你的认知负债也就越多。这个文章是MIT的媒体实验室发出来的,MIT这个媒体实验室还是非常著名的一个实验室。这篇文章呢,是2025年6月10日在Arxiv上的预印本的论文。现在有一个新的发论文的地方叫Arxiv,很多没有经过编辑审核、没有杂志社确认的这些论文就都可以放在这了。数学、计算机等等这些学科的大量论文都是会先放在这里,大家可以先开始看起来,因为科技实在是发展得太快了。有一些呢,修改过以后会重新发到杂志社上去,放到这上面并不算抢发。杂志社发的时候还会提出修改意见,你改完了以后会去更新Arxiv上的论文。

这个实验做了什么呢?18-39岁的54个人分成三组:纯脑力组、使用谷歌搜索引擎组和使用ChatGPT组。这三组呢,在20分钟之内写一篇SAT水平的考试作文。SAT呢,一般要求是开放式的、哲学或社会性讨论的这种问题,比如艺术的力量、成就的意义等等这样的题目。所以相对来说比较文科,比较开放的一个题目。

More

实习生代码投毒事件震惊ByteDance:恶意攻击如何利用AI大模型漏洞颠覆数千万美元的损失

实习生代码投毒事件震惊ByteDance:恶意攻击如何利用AI大模型漏洞颠覆数千万美元的损失已关闭评论

ByteDance的AI大模型被他们自己家的实习生投毒。这是一个什么故事?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲这起投毒事件。不是说举个小药瓶去投毒,而是恶意代码投毒。

事情发生在6月份,一位姓田的博士生在ByteDance实习。因为某些待遇或者资源分配问题,他对ByteDance感觉不满,于是就在代码里面进行了投毒。投毒的方式是他自己进行了一些代码维护,但这些代码是安全的,主要是一些调试用的代码。这些代码去读取一些上传文件之后,就具备了攻击性。

什么意思呢?就是我们去训练大模型的时候,需要把大量的信息数据上传到大模型进行训练。他的这种调试代码上传到服务器上以后,这个时候还是安全的,然后把一些恶意代码隐藏在训练数据里边。他把这些数据读出来以后,就对整个ByteDance的一些训练集群进行了攻击。这其实是黑客普遍采用的一些手段。

More

退出移动版