人工智能也会“大脑退化”
作者: aeks | 发布时间: 2025-10-23 03:38 | 更新时间: 2025-10-23 03:38
学科分类: 信息与通信工程 控制科学与工程 计算机科学与技术 软件工程
AI模型或许终究和人类有些相似。得克萨斯大学奥斯汀分校、得克萨斯农工大学与普渡大学的一项新研究表明,若大型语言模型被投喂流行但质量低下的社交媒体内容,会出现一种“脑损伤”,这对那些在X平台或TikTok上长时间无意义刷屏的人来说可能并不陌生。
“我们生活在一个信息增长速度远超注意力持续时长的时代——其中很多信息是为了吸引点击,而非传递真相或深度,”新加坡国立大学即将上任的助理教授洪俊源(在得克萨斯大学奥斯汀分校读研究生期间参与了该研究)表示,“我们想知道:当人工智能接受这类内容训练时会发生什么?”
洪俊源及其同事在预训练阶段,向两个开源大型语言模型(Meta的Llama和阿里巴巴的Qwen)投喂了不同类型的文本。他们专门研究了模型摄入大量“高互动性”(即广泛传播)的社交媒体帖子,以及包含“哇”“看”“仅限今日”等耸人听闻或夸张文本后的变化。
随后,研究人员通过多种基准测试来评估这种“垃圾”社交媒体内容对上述两个模型的影响。结果发现,摄入垃圾文本的模型出现了一种人工智能“脑损伤”——表现为认知衰退,包括推理能力下降、记忆力退化;同时,根据两项指标衡量,模型的伦理一致性降低,且更具“精神病态”特征。
该结果与针对人类的研究相呼应:低质量网络内容会对人的认知能力产生不利影响。这一现象的普遍性使得“脑损伤”(brain rot)被《牛津词典》评为2024年度词汇。
洪俊源指出,这些结果对人工智能行业很重要,因为模型构建者可能认为社交媒体帖子是优质的训练数据来源。“训练病毒式或吸引眼球的内容看似是在扩大数据规模,”他说,“但实际上会悄悄损害模型的推理能力、伦理观念和长上下文注意力。”
当人工智能自身越来越多地生成社交媒体内容(其中很多明显是为了提升互动性而优化的)时,大型语言模型遭受“脑损伤”的事实就显得尤为令人担忧。研究人员还发现,因低质量内容受损的模型难以通过再训练得到改善。
研究结果还表明,像Grok这类依托社交平台构建的人工智能系统,如果在训练中使用用户生成的帖子却不关注帖子的完整性,可能会面临质量控制问题。
“随着更多人工智能生成的垃圾内容在社交媒体上传播,它们会污染未来模型赖以学习的数据,”洪俊源说,“我们的研究发现,一旦这种‘脑损伤’形成,后续的清洁训练无法完全消除它。”
本文节选自威尔·奈特的《AI实验室》通讯,可在此阅读往期通讯。