特朗普拟禁止美国政府使用Anthropic公司产品

作者: aeks | 发布时间: 2026-03-04 02:06 | 更新时间: 2026-03-04 02:06

学科分类: 国际关系 法学 网络空间安全 计算机科学与技术

美国人工智能公司Anthropic与国防部近期爆发公开分歧。起因是五角大楼希望修改去年7月签署的合作协议,将原有限制性条款(如禁止AI用于完全自主的致命武器系统或对美国公民进行大规模监控)改为允许‘一切合法用途’。Anthropic表示反对,强调此举可能带来严重安全风险,并重申其核心使命是‘以安全为先’开发AI。尽管目前国防部并未实际部署此类高风险应用,也无相关计划,但特朗普政府高层认为,一家民用科技公司不应主导军事技术使用规则。Anthropic是首家与美军深度合作的主流AI实验室,通过2亿美元合同开发了专供军方使用的‘Claude Gov’模型,现主要应用于报告撰写、文件摘要、情报分析和作战规划等常规任务,运行于Palantir和亚马逊云的涉密平台。谷歌、OpenAI、xAI等公司也签有类似协议,但Anthropic是目前唯一接入美军涉密系统的AI企业。事件升级后,数百名OpenAI和谷歌员工联署公开信声援Anthropic;OpenAI CEO山姆·阿尔特曼亦表态支持,称大规模监控和完全自主武器是‘不可逾越的红线’。有专家指出,当前争议更多源于理念与信任氛围的差异,而非具体技术应用上的实质冲突——因为迄今国防部提出的所有AI使用方案,Anthropic均未反对;双方实际共识大于分歧,所谓‘红线问题’尚属理论推演,短期内并无落地可能。

标签: AI伦理与安全 AI军事应用 Claude Gov 国防部AI合同 致命自主武器