“人类”公司否认会在战争期间破坏AI工具
作者: aeks | 发布时间: 2026-03-21 10:01 | 更新时间: 2026-03-21 10:01
Anthropic公司公共事务主管蒂亚古·拉马萨米明确表示:公司从未、也无法在战时或平时远程关闭Claude模型、修改其功能、切断访问权限,更不可能干扰或危及军事行动。他强调,Anthropic既没有‘后门’,也没有远程‘一键关停’机制;员工无法登录国防部系统实时干预模型运行,技术本身就不支持这种操作。目前,五角大楼正用Claude分析情报、撰写备忘录、辅助制定作战计划。但国防部担忧:若Anthropic反对某些军事用途,可能擅自停服或推送有害更新。对此,Anthropic回应称,所有模型更新均需经政府及云服务商(如亚马逊AWS)共同批准,且公司完全无法获取军方用户输入的提示词或敏感数据。政策负责人萨拉·赫克在法庭文件中进一步澄清:Anthropic无意、也不会获得否决美军战术决策的权力;公司甚至曾于3月4日主动提出合同草案,明文承诺不干涉国防部(文中以‘战争部’代称)合法作战决策。此外,Anthropic也愿在合同中加入条款,防止Claude被用于无人监督下的致命打击任务。但双方谈判最终破裂。目前,五角大楼称正通过第三方云服务商加强管控,确保Anthropic管理层无法单方面改动现有Claude系统,以降低供应链风险。