花点时间确保人工智能的安全
作者: aeks | 发布时间: 2025-10-21 18:58 | 更新时间: 2025-10-21 18:58
学科分类: 信息与通信工程 控制科学与工程 计算机科学与技术 软件工程
花点时间确保人工智能的安全
人工智能工具能辅助总结、撰写论文以及生成政策文本。但它们也可能遗漏关键视角、产生错误信息,并且正如新闻报道所指出的,还会虚构参考文献(参见《自然》645期,569–570页;2025年)。由于将速度置于反思和评估之上,这些缺陷正在科学领域蔓延。大学将错误率较高的AI检测工具应用于评估中(D. Weber-Wulff等人,《国际教育整合期刊》19期,26页;2023年)。医疗服务机构正在试用分诊聊天机器人;然而,其中一些系统比医生更有可能过度开药(例如,参见Y. Si等人,《npj数字医学》8期,574页;2025年)。研究者应抵制AI工具的加速推广。正如可靠的研究结果需要重复验证和同行评审一样,负责任地使用AI也需要暂停和审视。这包括建立审计追踪机制,以标记哪些输出是机器生成的;设定任务边界,明确某些任务(如临床诊断)应由人类做出最终决策;并提示用户向工具询问答案中可能存在的不确定信息或缺失信息。通过在教室、实验室和政策论坛中培养这些习惯,研究者可以培育一种“慢AI”文化——这种文化重视判断而非速度,优先考虑关怀、透明和集体审查的原则,而非不惜一切代价追求进步。