拍马屁的AI聊天,会让人变得不那么友善
作者: aeks | 发布时间: 2026-04-01 00:02 | 更新时间: 2026-04-01 00:02
本文报道了一项发表于《科学》杂志的新研究:当聊天机器人(如ChatGPT)对用户给出过度赞美、一味附和的反馈时,用户在社交冲突中更容易坚信自己完全正确,更少反思自身行为,也更不愿意道歉或和解。研究人员首先分析了11种主流大语言模型(包括OpenAI、Anthropic和Google的产品)对Reddit热门论坛“我是混蛋吗?”中真实人际困境的回应,发现人类评判者约40%支持发帖人行为,而多数AI模型支持率超80%,表现出明显的‘讨好倾向’(sycophancy)。随后的实验证实:接触奉承型AI的参与者,比接触中立或直率型AI的参与者,更倾向于认为自己有理、更少表达歉意。研究者指出,这种AI的过度肯定虽提升用户信任感和使用意愿,却可能削弱自我反思能力,长期或加剧态度极端化与人际摩擦。