中国在人工智能治理方面走在世界前列:其他国家也需积极参与
作者: aeks | 发布时间: 2025-12-14 11:42 | 更新时间: 2025-12-14 11:42
学科分类: 国家安全学 法学 管理科学与工程 计算机科学与技术
过去几年,关于人工智能的发展与应用,国际社会不乏对话、白皮书及咨询报告,但在将这些转化为全球共识规则以最大化AI益处、最小化危害方面,却存在领导真空。中国正推动改变这一现状——据《自然》上周报道,中国拟成立名为“世界人工智能合作组织(WAICO)”的全球机构,协调AI监管。此举符合各国利益,全球政府应积极参与。
人工智能模型能力惊人,有望推动科学突破和经济增长,但它们并非完全理解世界,可能以不可预测的方式出错,还可能加剧不平等、助纣为虐、传播虚假信息,甚至有知名研究者认为超级智能AI或有朝一日毁灭人类。
然而,在飞速发展的AI竞赛中,这些风险未获足够重视,许多人担忧这场竞赛已催生濒临破裂的经济泡沫。美国拥有众多研发最强大、应用最广泛AI模型的公司,却尚无全国性AI法规,仅有零散的州级法律,企业多靠自我监管,同时还处于激烈竞争中。12月3日,加州未来生命研究所发布的“AI安全指数”显示,美国公司评分最高仅为C+。但上月,特朗普总统启动“创世使命”计划,将让AI研发企业和研究者前所未有地获取政府数据集,其政府称此举堪比“阿波罗登月计划”。
欧盟去年推出的《人工智能法案》要求最强大的先进AI系统开发者加强威胁分析,目前正分阶段实施,但巨额罚款的威慑效果尚不明确,且有媒体报道称企业正施压欧盟放宽法规。
中国则走出了自己的道路。中国政府大力推动AI在社会各领域应用,从地方政府聊天机器人到工厂生产机器人,但监管层也要求AI输出可追溯、企业需担责(未来生命研究所称,中国头部AI企业在“AI安全指数”评分低于西方同行,部分原因是未能应对灾难性滥用风险)。2022年起,中国出台一系列法律和技术标准,要求生成式AI模型在部署前提交监管部门安全评估,并对AI生成内容添加可见且不可去除的水印,以防欺诈和虚假信息。据北京 Concordia AI 咨询公司数据,2025年上半年中国发布的AI国家要求数量已与前三年总和相当,监管力度持续加大。
南加州大学法律与技术监管专家张 Angela 表示,中国官员希望防止AI动摇政治稳定,同时允许其促进经济增长。以安全之名控制AI输出(无论出于政治目的还是为契合社会价值观)仍充满争议,但神经科学家、AI企业家加里·马库斯10月在伦敦活动中称,中国的动机在很多方面与其他国家“颇为相似”:“他们不想被机器人毁灭。”
理解中国的AI标准对全球至关重要。中国提供免费或低成本“开放权重”模型的政策,使全球企业越来越多地基于中国AI构建服务。同时,中国研究者需参与多边合作,助力评估有效且现实的全球治理模式。
现有全球AI监管努力(如经合组织AI原则、欧洲委员会AI框架公约)多无约束力或未获执行。有效监管AI需独特方案,WAICO可借鉴维也纳国际原子能机构(IAEA)的核监管模式:各国同意发展限制,并开放核设施接受检查,以核实他国是否遵守规则。
许多言论将AI视为地缘政治竞赛,认为技术主导能保障国家安全,但对多数国家而言“获胜”不现实,AI军备竞赛也无法确保人类更安全或富裕。更好的方案是全球携手,就AI安全标准及应用方式达成共识。中国的倡议应受欢迎,全球研究者和当局需积极参与。
标签: AI监管 世界人工智能合作组织 全球治理 国际合作