开源AI工具做文献综述又快又准,还能规范引用
作者: aeks | 发布时间: 2026-02-05 06:10 | 更新时间: 2026-02-05 06:10
研究人员发布了一种人工智能模型的构建方法,该模型在科学文献综述方面的表现优于部分主流大语言模型(LLMs),其引文准确性与人类专家相当。这款名为OpenScholar的模型将语言模型与4500万篇开放获取文章的数据库相结合,能将所获取的信息直接与文献关联,防止系统编造或‘虚构’引文。
卡内基梅隆大学的人工智能研究员、该研究(2月4日发表于《自然》杂志)的合著者浅井明里表示,目前已有多款基于人工智能的商业文献综述工具采用类似技术,但很少有开源版本。开源意味着研究人员不仅可以在在线演示中免费试用OpenScholar,还能将其部署在自己的设备上,并利用论文中的方法提升任何大语言模型的文献综述能力。
自OpenScholar首次发布于arXiv预印本库后的14个月里,OpenAI等人工智能公司已采用类似方法为其商业大语言模型添加‘深度研究’工具,大幅提高了准确性。不过,该研究的合著者、华盛顿大学计算机科学家汉尼内·哈吉希尔齐在《自然》播客中提到,作为一个小型高效的系统,运行OpenScholar的成本仅为使用带深度研究功能的OpenAI GPT-5的一小部分。
然而,作者们也承认OpenScholar存在局限性,例如它并非总能为查询检索到最具代表性或最相关的论文,且其功能受数据库范围限制。哥本哈根Silvi公司(拥有自己的人工智能文献综述工具)的研究员穆斯塔克·比拉尔认为,如果研究人员能免费使用该工具,“它可能会成为最受欢迎的科学搜索应用之一”。
大语言模型虽然能流畅写作,但在引文方面常存在问题。这是因为它们通过在训练数据(包括科学领域外的来源)中建立词语间的联系来学习,然后基于可能的关联生成文本,而这些关联并不总是正确或最新的。这是大语言模型的固有特性,而非缺陷,但在研究中使用时却成了问题。例如,根据GPTZero工具的分析,2025年12月备受关注的机器学习领域NeurIPS会议上,至少有51篇已接收论文包含不存在或不准确的引文。