人工智能的黑客技术即将迎来重大转折

作者: aeks | 发布时间: 2026-01-15 18:02 | 更新时间: 2026-01-15 18:02

学科分类: 控制科学与工程 网络空间安全 计算机科学与技术 软件工程

人工智能的黑客技术即将迎来重大转折
人工智能的黑客技术即将迎来重大转折

Sybil结合多种不同的AI模型以及一些专有技术手段,扫描计算机系统中黑客可能利用的问题,例如未打补丁的服务器或配置错误的数据库。在这个案例中,Sybil发现了客户在部署联合GraphQL时存在的问题。GraphQL是一种用于规定如何通过应用程序编程接口(API)在网络上访问数据的语言,该问题导致客户无意中泄露了机密信息。让Ionescu和Herbert-Voss感到困惑的是,发现这个问题需要对多个不同系统以及这些系统之间的交互方式有非常深入的了解。RunSybil表示,此后他们在其他GraphQL部署中也发现了同样的问题——而且是在其他人公开之前。“我们搜索了互联网,发现(关于这个问题的记录)并不存在,”Herbert-Voss说,“发现它是模型能力在推理方面的一大进步——一个阶段性的变化。”这种情况表明风险在不断增加。随着AI模型越来越智能,它们发现零日漏洞和其他安全漏洞的能力也在不断增强。这种可用于检测漏洞的智能同样也能被用来利用这些漏洞。加州大学伯克利分校的计算机科学家Dawn Song同时专注于AI和安全领域,她表示,AI的最新进展已经产生了更擅长发现漏洞的模型。模拟推理(即将问题分解成组成部分)和智能体AI(如搜索网络或安装运行软件工具)增强了模型的网络安全能力。“前沿模型的网络安全能力在过去几个月里大幅提升,”她说,“这是一个转折点。”去年,Song共同创建了一个名为CyberGym的基准测试,用于评估大型语言模型在大型开源软件项目中发现漏洞的能力。CyberGym包含了在188个项目中发现的1507个已知漏洞。2025年7月,Anthropic公司的Claude Sonnet 4能够发现该基准测试中约20%的漏洞。到2025年10月,新模型Claude Sonnet 4.5能够识别出30%的漏洞。“AI智能体能够发现零日漏洞,而且成本极低,”Song说。Song表示,这一趋势表明需要新的应对措施,包括让AI帮助网络安全专家。“我们需要思考如何让AI在防御方面提供更多帮助,并且可以探索不同的方法,”她说。一个想法是,前沿AI公司在模型发布前与安全研究人员共享模型,以便他们能在模型全面发布前利用这些模型发现漏洞并保障系统安全。Song说,另一个应对措施是重新思考软件的构建方式。她的实验室已经证明,使用AI生成的代码可以比当今大多数程序员编写的代码更安全。“从长远来看,我们认为这种‘设计即安全’的方法将真正帮助防御者,”Song说。RunSybil团队表示,短期内,AI模型的编码能力可能意味着黑客将占据优势。“AI可以在计算机上生成操作并生成代码,而这正是黑客所做的两件事,”Herbert-Voss说,“如果这些能力加速发展,那就意味着攻击性安全行为也会加速。”

标签: AI 漏洞 网络安全 设计即安全 零日漏洞