科学家“造”出一种假疾病,AI却信以为真

作者: aeks | 发布时间: 2026-04-08 02:01 | 更新时间: 2026-04-08 02:01

学科分类: 公共卫生与预防医学 基础医学 新闻传播学 计算机科学与技术

本文报道了一项由瑞典哥德堡大学医学研究员阿尔米拉·奥斯马诺维奇-通斯特伦(Almira Osmanovic Thunström)设计的警示性实验:她虚构了一种根本不存在的眼部疾病‘比克索尼mania’(bixonimania),并伪造了两位作者(包括用AI生成头像的虚构学者‘拉兹利夫·伊兹古布连诺维奇’)、两篇预印本论文,以及大量明显荒诞的线索(如虚构大学‘星界地平线大学’、致谢‘星际舰队学院’教授、资助方为‘小丑鲍勃教授基金会’等)。她此举旨在检验大型语言模型(LLM)是否会不加甄别地吸收并传播虚假医学信息。实验结果令人震惊——数周内,微软Copilot、谷歌Gemini、Perplexity和OpenAI ChatGPT等主流AI助手纷纷将‘比克索尼mania’当作真实疾病回应用户提问,甚至给出诊断建议和患病率数据。更值得警惕的是,该虚假研究随后被印度一家研究机构发表于开放获取期刊《Cureus》的论文中正式引用,导致该论文最终被撤稿。专家指出,问题不仅在于AI‘幻觉’,更在于部分人类研究者未核实原始文献,直接依赖AI生成的参考文献;而AI对格式专业(如临床报告式文本)内容的信任度更高,加剧了错误传播风险。尽管后续部分模型已能识别该病为虚构,但其反复摇摆的回应(有时否认、有时又默认)表明当前AI在事实核查上仍不可靠。文章强调,这一事件是健康 misinformation传播机制的典型缩影,警示学界必须重建对信息来源的审慎信任机制。

DOI: 10.1038/d41586-026-01100-y

标签: AI辅助科研风险 大语言模型幻觉 虚构疾病 预印本造假