人工智能制造的假新闻,即将出现在你身边的选举中
作者: aeks | 发布时间: 2025-10-20 18:19 | 更新时间: 2025-10-20 18:19
学科分类: 信息与通信工程 控制科学与工程 网络空间安全 计算机科学与技术
在ChatGPT发布多年前,我的研究团队——剑桥大学社会决策实验室就曾思考:神经网络是否能生成虚假信息?为此,我们训练了ChatGPT的前身GPT-2,给它输入热门阴谋论案例,然后让它为我们生成假新闻。结果它产出了数千条看似合理却带有误导性的新闻,例如“某些疫苗含有危险化学物质和毒素”“政府官员操纵股价掩盖丑闻”。问题是,会有人相信这些说法吗?
我们研发了首个用于验证这一假设的心理测量工具,将其命名为“虚假信息易感性测试”(MIST)。通过与舆观调查公司(YouGov)合作,我们用这些AI生成的标题测试美国人对AI假新闻的易感性。结果令人担忧:41%的美国人错误地认为“疫苗含毒”的标题是真的,46%的人认为政府在操纵股市。《科学》期刊近期发表的另一项研究也显示,GPT-3生成的虚假信息不仅比人类制作的更具说服力,人们也无法可靠地区分人类与AI生成的虚假信息。
我对2024年的预测是:AI生成的虚假信息将出现在你身边的选举中,而你可能根本意识不到。事实上,你或许已经接触过一些例子。2023年5月,一则关于五角大楼爆炸的疯传假新闻配有AI生成的图片,图中显示一大团烟雾。这引发了公众哗然,甚至导致股市下跌。共和党总统候选人罗恩·德桑蒂斯在其政治竞选活动中,使用了特朗普拥抱安东尼·福奇的假图片。通过混合真实与AI生成的图片,政客们可以模糊事实与虚构的界限,并利用AI加剧政治攻击。
在生成式AI爆发之前,全球的网络宣传公司需要亲自撰写误导性信息,并雇佣“网络水军工厂”大规模针对人群。而在AI的协助下,生成误导性新闻标题的过程得以自动化,且只需极少人工干预就能被武器化。例如,“微目标定位”——即根据数字痕迹数据(如脸书点赞)向特定人群推送信息的做法——在过去的选举中就已引发担忧,尽管其主要障碍是需要生成数百种同一信息的变体,以观察哪种对特定人群有效。如今,这种曾经劳动密集型且昂贵的工作变得廉价且唾手可得,几乎没有准入门槛。AI实际上让虚假信息的制作“民主化”了:任何能使用聊天机器人的人,都可以针对特定话题(无论是移民、控枪、气候变化还是LGBTQ+议题)给模型“喂料”,并在几分钟内生成数十条极具说服力的假新闻。事实上,数百个AI生成的新闻网站已经涌现,传播虚假故事和视频。
为测试此类AI生成的虚假信息对人们政治偏好的影响,阿姆斯特丹大学的研究人员制作了一段深度伪造视频,内容是一名政客冒犯其宗教选民群体。例如,视频中该政客开玩笑说:“正如基督会说的,别为此钉死我。”研究发现,观看了这段深度伪造视频的基督教选民对该政客的态度比对照组更负面。
在实验中用AI生成的虚假信息欺骗人们是一回事,拿我们的民主做实验则是另一回事。2024年,我们将看到更多深度伪造、声音克隆、身份操纵和AI制作的假新闻。各国政府将严重限制——如果不禁止的话——AI在政治竞选活动中的使用。因为如果不这样做,AI将破坏民主选举。