为什么要限制人工智能武器的自主权
作者: aeks | 发布时间: 2025-10-30 18:09 | 更新时间: 2025-10-30 18:09
英国研制的自主无人机“天鲨”在伦敦举行的国际防务与安全装备展上展出。(图片来源:John Keeble/Getty Images)能够自动识别并攻击目标的武器已使用80余年。早期例子如美国的Mark 24“菲多”反潜鱼雷,它配备麦克风用于追踪目标,1943年首次用于对抗德国U型潜艇。《自然》聚焦:机器人技术。这种“第一波”自主系统设计用于特定场景,编程响应特定目标的射频信号等。过去十年,更先进的系统问世,能利用人工智能导航、识别和摧毁目标,几乎无需人工干预。这引发人权组织日益强烈的呼吁,要求禁止或监管此类技术。英国爱丁堡大学国际法教授Nehal Bhuta研究自主武器的合法性与伦理问题已逾十年。他是上月荷兰首相Dick Schoof向联合国安理会提交的《负责任使用人工智能报告》的作者之一。Bhuta表示,自主武器(尤其是人工智能驱动的)引发多重伦理和法律关切,包括系统故障的责任认定,以及可能助长对平民数据的侵入性收集。他称国际社会仍有时间就限制风险的原则和法规达成一致,并警告若不这样做可能引发军备竞赛。当前哪些法律框架和原则适用于自主武器系统?目前尚无专门针对这些系统中自主性或人工智能使用的法律框架。根据基于《海牙公约》和《日内瓦公约》的国际人道法(二者共同构成战争与战争罪的国际法),武器的使用必须能够区分民用和军事目标。攻击不得对平民造成过度伤害,战斗人员必须采取预防措施核实目标正确性并降低平民伤害风险。这些国际法适用于所有武器,包括先进自主系统,例如乌克兰6月部署的无人机,它利用机器学习根据预设指令选择、识别并打击俄罗斯腹地目标。爱丁堡大学法学院供图:Nehal Bhuta教授表示,国际社会就自主武器的使用达成指导方针至关重要。自主武器有哪些风险?研发和部署时若不够谨慎,可能违反区分原则和比例原则。系统在识别目标时会产生过多误报吗?自主武器会认为为打击疑似敌方士兵而造成大量平民死亡是可接受的代价吗?由于技术尚不成熟,我们尚不清楚,但这些风险巨大。此外,若系统在快速变化的环境中无法准确处理输入数据,可能会误击友军或平民。为使这些系统有效,需获取大量数据,包括生物特征信息、语音通话、电子邮件和行动细节。若未经相关人员同意收集,这令人担忧。功能越多,所需数据越多,这促使人们更侵入性地收集数据。当自主武器造成死亡时,谁承担法律和伦理责任?Bhuta认为,未来一些主权国家可能部署能自主决定杀戮的武器。问题在于各国是否愿监管此类系统。有效的法律框架需要明确违规责任归属。对于复杂的自主武器系统,很难确定谁对故障和违规负责。未来系统操作员可能未受过充分训练,不知何时忽略系统建议;也可能产生自动化偏见,不愿质疑先进机器。系统在目标获取上可能存在系统性偏见,此时责任可能在开发者与授权使用的军方官员之间。责任可能过于分散,难以确定谁对违规和故障负责。这是复杂现代技术的常见问题,答案在于为自主武器系统的研发和使用制定监管框架。