让2026年成为全球携手保障人工智能安全的元年
作者: aeks | 发布时间: 2025-12-29 22:01 | 更新时间: 2025-12-29 22:01
学科分类: 交叉学科 法学 管理科学与工程 计算机科学与技术
人工智能技术需要安全且透明,脱离安全监管毫无益处。展望未来,人工智能领域将持续发展,多国也在制定更多相关法律法规。2023年全球至少通过30部AI相关法律,2024年又通过40部。过去几年,东亚及太平洋地区、欧洲和美国部分州的AI立法最为活跃,2024年美国各州通过了82项AI相关法案。但也存在明显的“监管冷区”:低收入和中低收入国家行动较少,而美国联邦政府却在取消AI政策工作并挑战州级AI法律。
今年必须让更多低收入国家开始监管AI技术,并让美国认识到其现行做法的危险性。美国是AI技术的最大市场之一,全球很多人使用的模型主要由美国公司开发。所有国家,无论处于AI生产者还是消费者的何种位置,都需要AI法律和政策。很难想象能源、食品生产、制药或通信等领域的技术不受安全监管,AI也应如此。
国际共识正在形成。中国和许多欧洲国家都高度重视AI监管,欧盟《人工智能法案》的大部分条款预计于8月生效。2024年,非洲联盟发布了全非AI政策指导方针,还有通过联合国建立全球AI合作组织的动向。
各国和地区已出台或正在制定广泛的法律法规。例如,一些国家正考虑禁止“深度伪造”视频,这应成为全球目标。企业需披露训练模型所用数据,尊重版权;AI开发者(多为企业)需透明解释产品工作原理,证明模型合法生产、技术安全且对风险和危害负责;研究人员也需提高透明度,更多地在同行评审文献中发布模型。
联合国贸发会议数据显示,2023年底,三分之二的高收入国家和30%的中等收入国家已制定AI政策或战略,但低收入国家中这一比例仅略超10%,这些国家的AI监管工作需要支持。
同时也需要与美国沟通。特朗普政府上台后,取消了前任政府启动的AI标准制定项目,并发布行政命令禁止与白宫AI政策冲突的州法律。一些科技公司领导人虽满意现状,但另一些则明白良好的监管能提供标准一致性和长期规划可预测性,宽松监管或无监管对企业和消费者都无益处。
监管机构公务员深知需要更好的监管来保护民众(尤其是儿童)免受伤害并安抚消费者。公众对AI风险存在焦虑,部分源于企业追求通用人工智能的野心,AI研究界(包括一些先驱)也在警告失控AI可能带来的生存风险。
特朗普政府官员称监管会让美国输掉与中国的AI竞赛,但中国正探索创新路径:AI企业开发更开放的技术产品,并在全国性法规要求下进行更多披露。
科技公司的商业模式依赖公众合作(尤其是数据获取),若公众对数据安全和负责任使用失去信心,或得知AI产品伤人,这种合作将消失。
AI可能是变革性技术,但其影响尚不明确。许多国家正谨慎评估风险,政策制定需要更多协调性。各国应共同制定既能促进发展又包含防护措施的政策,希望2026年全球能就此达成一致。