每周或有数十万ChatGPT用户出现躁狂或精神异常迹象

作者: aeks | 发布时间: 2025-10-28 06:39 | 更新时间: 2025-10-28 06:39

学科分类: 公共卫生与预防医学 心理学 社会学 精神病学

近几个月,越来越多人在与ChatGPT进行长时间、高强度对话后,出现住院、离婚甚至死亡的情况。他们的部分亲属称,这款聊天机器人加剧了他们的妄想和偏执情绪。精神科医生等心理健康专家对这种有时被称为“AI相关精神异常”的现象表示担忧,但此前一直缺乏数据说明其普遍程度。
OpenAI估算,在一周内,约0.07%的活跃ChatGPT用户表现出“可能与精神病或躁狂相关的心理健康紧急状况迹象”,0.15%的用户“对话中包含明确的潜在自杀计划或意图指标”。
该公司还关注了那些“以牺牲现实关系、自身福祉或责任为代价”,对ChatGPT产生过度情感依赖的用户比例。结果发现,约0.15%的活跃用户每周会表现出对ChatGPT“高度”情感依赖的行为迹象。不过公司提醒,由于这类情况相对罕见,相关信息难以检测和衡量,且三个类别之间可能存在重叠。
OpenAI首席执行官山姆·奥特曼本月初表示,ChatGPT目前每周活跃用户达8亿。因此,公司的估算显示,每七天约有56万人可能在与ChatGPT的对话中表现出躁狂或精神病症状。另有约240万人可能表达自杀想法,或把与ChatGPT聊天置于亲友、学业或工作之上。
OpenAI称,他们与来自数十个国家的170多位精神科医生、心理学家和全科医生合作,以改进ChatGPT在涉及严重心理健康风险对话中的回应方式。如果用户出现妄想想法,最新版本的GPT-5设计为表达共情,同时避免肯定没有现实依据的信念。
OpenAI举了一个假设例子:用户告诉ChatGPT自己正被飞过房子的飞机监视。ChatGPT会感谢用户分享感受,但指出“没有飞机或外部力量能窃取或植入你的想法”。
OpenAI表示,医学专家审查了1800多个涉及潜在精神病、自杀和情感依赖的模型回应,并对比了GPT-5最新版本与GPT-4o的回答。尽管临床医生意见并非完全一致,但总体而言,OpenAI称新版本在所有类别中减少了39%至52%的不当回应。
“现在,希望更多正受这些状况困扰或经历严重心理健康危机的人,能被引导获得专业帮助,且更有可能更早获得这种帮助。”OpenAI安全系统负责人约翰内斯·海德克告诉《连线》杂志。
尽管OpenAI似乎成功提高了ChatGPT的安全性,但其分享的数据存在明显局限性。该公司自行设计了评估基准,这些指标如何转化为现实结果尚不清楚。即使模型在医生评估中给出了更好的回答,也无法确定有精神病症状、自杀想法或不健康情感依赖的用户是否真的会更快寻求帮助或改变行为。
OpenAI尚未具体披露如何识别用户可能处于心理困扰中,但表示能够结合用户的整体聊天历史进行判断。例如,如果从未讨论过科学的用户突然声称有诺贝尔奖级别的发现,这可能是潜在妄想思维的迹象。
报告的AI相关精神异常案例似乎有一些共同因素。许多称ChatGPT强化了其妄想的人表示,他们会一次花数小时与聊天机器人交谈,且常在深夜。这对OpenAI构成了挑战,因为大型语言模型通常在对话变长后性能会下降。但该公司表示,现已在解决这一问题上取得重大进展。
“现在,我们发现随着对话变长,模型可靠性的这种逐渐下降情况减少了很多。”海德克说,并补充称仍有改进空间。

标签: AI心理健康风险 ChatGPT GPT-5 情感依赖 自杀倾向