作者: aeks |
发布时间: 2026-04-23 16:01
学科:
智能科学与技术
网络空间安全
计算机科学与技术
软件工程
大语言模型常会自信地编造看似合理实则错误的信息(即“幻觉”)。本文指出,当前主流评估方式(如准确率)反而鼓励模型乱猜而非承认不懂。研究发现,模型预训练阶段就存在诱发幻觉的统计倾向;而后续评估若只重准确率、不奖惩不确定性表达,会进一步加剧问题。作者提出“开放评分标准”等新评估方法,从激励机制入手,让模型更诚实可靠。
标签:
大语言模型
幻觉
开放评分标准
模型诚实性
评估激励