分阶段发布开源AI模型,可降低风险

作者: aeks | 发布时间: 2026-03-04 03:03 | 更新时间: 2026-03-04 03:03

学科分类: 管理科学与工程 网络空间安全 计算机科学与技术

本文指出,开放权重的人工智能模型(即模型参数向公众公开的AI模型)正日益成为重要的科学基础设施。这类模型能扩大科研参与范围、加快研究结果复现,并支持独立验证,从而提升科研透明度和可重复性。但同时存在明显隐患:一旦模型被下载,其参数可能被擅自修改,内置的安全机制也可能被移除。这使得对模型滥用行为的事前防范和事后追踪,远比在受控的云端托管系统中更加困难。文章强调,在推动AI开放共享的同时,亟需建立配套的治理机制与责任框架,以平衡创新活力与风险防控。

DOI: 10.1038/d41586-026-00679-6

标签: 人工智能治理 开放权重模型 模型滥用风险 科研基础设施