人工智能和博士生:是朋友还是对手?

作者: aeks | 发布时间: 2026-03-17 14:01 | 更新时间: 2026-03-17 14:01

学科分类: 教育学 管理科学与工程 计算机科学与技术

文章以尼日利亚阿布贾大学传染病建模博士生Leona Diala的经历开篇:她用AI高效完成文献搜索、演示设计、代码编写和论文摘要,称其为“研究者的福音”;但同时警惕AI过度使用正侵蚀基础学术能力——她坚持人工核查所有引用与事实,并重写AI生成内容。她担忧新一代学生丧失“坐冷板凳”的钻研精神,认为AI虽便利却易导致懒惰,削弱技能锤炼的主动性。这种矛盾心态在博士生中颇具代表性:《自然》去年对近3800名博士生的调查显示,75%认可AI提升效率,71%接受其辅助学习,但81%不完全信任AI,65%担心其损害思维、研究与写作能力。

自2022年11月ChatGPT发布以来,高校AI使用率激增。一项针对英国本科生的2025年2月调查显示,88%的学生在考核中使用AI(前一年仅53%);使用过任意AI工具者比例从2024年的66%跃升至2025年的92%,研究者称之为“几乎前所未有的行为剧变”。博士生们正独自探索导师未曾经历的新领域:有人每日依赖AI,有人坚决不用,而多数人则在实践中摸索边界。

清华大学博士生Yinghui He将AI用于语法检查与代码生成,肯定其效率,但强调必须人工验证结果;西澳大利亚大学博士生Richard Ang曾因盲目信任ChatGPT计算的化肥剂量导致实验失败,教训是AI不会指出研究设计本身的错误或不合理性,因此他现在坚持要求AI分步解释推理并交叉验证多个工具。Diala也曾遭遇AI误读图表(将下降说成上升),由此总结出关键前提:使用者须具备基本知识,才能识别AI错误。

政策滞后加剧困惑。欧洲大学协会2025年1月报告指出,仅5%的欧洲高校认为现有AI指南足够;38%尚在首次制定政策,13%甚至毫无政策。在此空白下,教育者如迪拜的Amina Yonis(分子生物学背景,创办学术支持机构“The Page Doctor”)成为学生求助对象。她主张分场景使用AI:鼓励用于文献查找、消化与整理(可将年读50篇提速至月读50篇),但反对用于数据分析(涉及数据隐私且需保持思想主导权);对论文写作,建议仅用于搭建框架或语言润色,切忌让AI从零生成长段落,否则易陷入其表达范式难以脱身;而对非英语母语者,AI在语言支持上具有变革意义,能显著促进科研参与公平性,但绝不可替代独立思考——这正是导师的核心育人任务。

Yonis还推荐学术专用工具替代通用AI:如Paperpal(论文写作)、Consensus(循证文献检索)。文中进一步列举多类专业AI工具:文献发现类(ResearchRabbit、Elicit、Consensus、Scite、Connected Papers等)可构建引文网络、提取结论、提供证据支持及可视化研究图谱;数据分析类(Julius、Bohrium、GitHub Copilot)支持自然语言驱动的数据分析、科学仿真与代码补全;写作编辑类(Paperpal、OpenAI的Prism工作区)专注科研文本优化与LaTeX文档精修。

最后,文章给出三条底线原则:第一,AI必须服务于学习,而非取代思考;第二,严禁在无数据协议与机构审批前提下上传敏感、专有或含个人身份信息的数据;第三,不得未经披露就用AI撰写整篇论文或章节,否则违反学术诚信。Yonis的终极建议朴素有力:“AI才出现三年,绝大多数博士都是靠传统方法完成的——你也可以。”

面向未来,文章提出更深层问题:博士生究竟应强化哪些不可替代的能力?计算神经科学家Natalia Bielczyk指出,在AI擅长速度与记忆的时代,博士真正的价值在于机器仍薄弱的领域:提出好问题、驾驭不确定性、设计真实世界的检验方案。博士训练的核心超能力,是系统性解决问题的能力;AI可承担扫文献、润稿等常规任务,从而释放更多时间投入需要深度、慢节奏、概念性思考的突破性工作。短期内AI难取代高阶人类思维,反而抬高了人类必须专精的门槛——即那些唯有人才能完成的研究环节。

DOI: 10.1038/d41586-026-00843-y

标签: 人工智能伦理 博士生 学术能力培养 科研工具 高等教育政策