Google阻止了疑似由AI开发的零日漏洞利用
The Verge AI··作者 Stevie Bonifield
关键信息
GTIG表示,这个漏洞利用脚本里有一些暗示AI参与的痕迹,例如虚构的CVSS评分,以及看起来像来自LLM训练数据的“教科书式”结构化格式。谷歌还说,这一问题属于高层语义逻辑缺陷,源于平台2FA系统中被硬编码的信任假设,而且他们不认为使用的是Gemini。
资讯摘要
谷歌表示,它发现并阻止了一个它认为是首个带有AI参与证据的零日漏洞利用。该报告来自Google Threat Intelligence Group,称“知名网络犯罪威胁行为者”正准备针对一款开源、基于网页的系统管理工具发动“规模化利用”攻击。谷歌称,这次攻击的目标是绕过双因素认证,并将该漏洞用于大规模入侵。研究人员在漏洞利用脚本的Python代码中发现了一些暗示AI辅助的线索,包括一个虚构的CVSS评分,以及明显“教科书式”的结构化措辞。
谷歌将该漏洞描述为一种高层语义逻辑缺陷,原因是开发者在工具的2FA设计中硬编码了一个信任假设。公司还强调,他们不认为该攻击使用了Gemini。报告同时指出,攻击者越来越多地利用AI来发现和利用漏洞,而AI系统本身也正成为攻击目标,因为对手开始盯上自治技能和第三方数据连接器等组件。报告还提到“基于人格的越狱”提示,以及攻击者将漏洞数据仓库和OpenClaw结合使用,以便在部署前在受控环境中改进AI生成的载荷。

资讯正文
谷歌表示,它首次发现并阻止了一个由 AI 开发的零日漏洞利用程序。根据谷歌威胁情报集团(GTIG)的一份报告,“知名的网络犯罪威胁行为者”原本计划利用这一漏洞发动一场“大规模利用事件”,从而绕过一个未具名的“开源、基于网页的系统管理工具”的双因素认证。
谷歌研究人员在用于该漏洞利用的 Python 脚本中发现了一些暗示 AI 参与的迹象,例如“幻觉生成的 CVSS 评分”以及与 LLM 训练数据一致的“结构化、教科书式”格式。该漏洞利用借助的是“一个高级语义逻辑缺陷,开发者在平台的 2FA 系统中硬编码了一个信任假设”。这一发现出现在外界对以网络安全为重点的 AI 模型能力进行数周担忧之后,例如 Anthropic 的 Mythos,以及最近披露、并在 AI 协助下发现的一个 Linux 漏洞。
这是谷歌首次发现有证据表明 AI 参与了这类攻击,不过谷歌研究人员指出,他们“并不认为 Gemini 被使用了”。谷歌表示,它成功“干扰”了这一特定漏洞利用,但也称黑客正越来越多地使用 AI 来发现并利用安全漏洞。报告还提到 AI 本身也是攻击者的目标,称“GTIG 观察到,对手正越来越多地针对赋予 AI 系统实用性的集成组件,例如自主技能和第三方数据连接器。”
谷歌的报告还详细描述了黑客如何使用“基于人格的越狱”来让 AI 替他们寻找安全漏洞,例如一条示例提示词会指示 AI 假装自己是一名安全专家。黑客还在向 AI 模型输入整个漏洞数据仓库,并以 OpenClaw 为工具进行操作,这些行为表明他们“有兴趣在受控环境中改进 AI 生成的载荷,以便在部署前提高漏洞利用的可靠性”。
来源与参考
收录于 2026-05-12