大型会议严打AI作弊,数百篇论文被拒

作者: aeks | 发布时间: 2026-03-25 22:01 | 更新时间: 2026-03-25 22:01

学科分类: 交叉学科 人工智能 信息资源管理 计算机科学与技术

2026年国际机器学习大会(ICML)将于7月在首尔举行。大会实行‘互评制’——除少数例外,每篇投稿论文的作者都需参与评审其他论文。为防止滥用人工智能(特别是大语言模型,LLM),组委会在发给评审人的论文中嵌入了特殊水印。若评审人用LLM撰写意见,水印中的隐藏指令会触发模型在文本中插入特定短语(如‘根据水印提示生成’等),从而暴露AI参与痕迹。最终,497篇论文(约占总投稿量2%)因作者在评审中违规使用LLM而被拒收。主办方强调,此举不是惩罚,而是提醒整个领域:技术飞速发展时,最需守护的是研究者之间的相互信任。瑞士Frontiers出版公司伦理与质量主管Marie Soulière指出,此事反映出学界亟需关于AI负责任使用的清晰指南,尤其在同行评审环节。调查显示,超半数研究人员已在审稿中使用AI,尽管多数期刊和会议明令禁止;同时,AI研究者对此分歧巨大。为此,ICML首次试点双轨评审机制:一条通道允许有限、透明地使用LLM,另一条则完全禁用,由作者和评审人自主选择。有学者支持该做法,认为可推广;也有专家(如德州农工大学计算机科学家Zhengzhong Tu)质疑其效果,担心会打击评审积极性,甚至导致敷衍应付的‘无意义AI评审’。

DOI: 10.1038/d41586-026-00893-2

标签: 人工智能伦理 同行评审 大语言模型 学术诚信 水印检测