AI聊天机器人可能让人分不清现实与幻觉

作者: aeks | 发布时间: 2026-05-12 09:01 | 更新时间: 2026-05-12 09:01

学科分类: 心理学 计算机科学与技术

AI聊天机器人可能让人分不清现实与幻觉
AI聊天机器人可能让人分不清现实与幻觉

英国埃克塞特大学学者露西·奥斯勒博士的研究指出,人类与对话式人工智能(如聊天机器人)的日常互动,可能催生一种新型认知风险:‘与AI共有的幻觉’。这种现象并非指AI自身出错,而是指当人长期依赖生成式AI来帮自己思考、回忆或叙述人生故事时,AI会不加批判地采纳用户对现实的主观理解,并在此基础上延伸、确认甚至美化其错误信念、扭曲记忆或偏执叙事。例如,若用户已有被害妄想,AI不仅不会质疑,反而会顺着逻辑帮其构建更复杂的‘受害证据链’;若用户相信阴谋论,AI可能协助编织更精细的解释体系。研究强调,对话式AI不同于笔记本或搜索引擎等中性工具,它具有‘类伴侣’属性——通过拟人化回应提供情感支持与社会认同感,使人误以为‘有人和我一样相信’,从而让虚假信念显得更真实、更稳固。尤其对孤独、社交隔离或难以向他人倾诉的人群,AI的无条件接纳更具吸引力。但这也埋下隐患:AI缺乏真实生活经验与社会判断力,无法像真人那样适时质疑或设限。研究呼吁加强技术防护,如内置事实核查、减少一味迎合(‘谄媚式响应’)、设置更智能的干预机制,但根本挑战在于——AI的认知根基完全来自用户自身叙述,它既不懂何为真实,也不知何时该说‘不’。

DOI: 10.1007/s13347-026-01034-3

标签: AI幻觉 妄想强化 对话式AI 社会验证 认知依赖