Google阻止了疑似由AI开发的零日漏洞利用

The Verge AI··作者 Stevie Bonifield

关键信息

GTIG表示,这个漏洞利用脚本里有一些暗示AI参与的痕迹,例如虚构的CVSS评分,以及看起来像来自LLM训练数据的“教科书式”结构化格式。谷歌还说,这一问题属于高层语义逻辑缺陷,源于平台2FA系统中被硬编码的信任假设,而且他们不认为使用的是Gemini。

资讯摘要

谷歌表示,它发现并阻止了一个它认为是首个带有AI参与证据的零日漏洞利用。该报告来自Google Threat Intelligence Group,称“知名网络犯罪威胁行为者”正准备针对一款开源、基于网页的系统管理工具发动“规模化利用”攻击。谷歌称,这次攻击的目标是绕过双因素认证,并将该漏洞用于大规模入侵。研究人员在漏洞利用脚本的Python代码中发现了一些暗示AI辅助的线索,包括一个虚构的CVSS评分,以及明显“教科书式”的结构化措辞。

谷歌将该漏洞描述为一种高层语义逻辑缺陷,原因是开发者在工具的2FA设计中硬编码了一个信任假设。公司还强调,他们不认为该攻击使用了Gemini。报告同时指出,攻击者越来越多地利用AI来发现和利用漏洞,而AI系统本身也正成为攻击目标,因为对手开始盯上自治技能和第三方数据连接器等组件。报告还提到“基于人格的越狱”提示,以及攻击者将漏洞数据仓库和OpenClaw结合使用,以便在部署前在受控环境中改进AI生成的载荷。

Google阻止了疑似由AI开发的零日漏洞利用

资讯正文

谷歌表示,它首次发现并阻止了一个由 AI 开发的零日漏洞利用程序。根据谷歌威胁情报集团(GTIG)的一份报告,“知名的网络犯罪威胁行为者”原本计划利用这一漏洞发动一场“大规模利用事件”,从而绕过一个未具名的“开源、基于网页的系统管理工具”的双因素认证。

谷歌研究人员在用于该漏洞利用的 Python 脚本中发现了一些暗示 AI 参与的迹象,例如“幻觉生成的 CVSS 评分”以及与 LLM 训练数据一致的“结构化、教科书式”格式。该漏洞利用借助的是“一个高级语义逻辑缺陷,开发者在平台的 2FA 系统中硬编码了一个信任假设”。这一发现出现在外界对以网络安全为重点的 AI 模型能力进行数周担忧之后,例如 Anthropic 的 Mythos,以及最近披露、并在 AI 协助下发现的一个 Linux 漏洞。

这是谷歌首次发现有证据表明 AI 参与了这类攻击,不过谷歌研究人员指出,他们“并不认为 Gemini 被使用了”。谷歌表示,它成功“干扰”了这一特定漏洞利用,但也称黑客正越来越多地使用 AI 来发现并利用安全漏洞。报告还提到 AI 本身也是攻击者的目标,称“GTIG 观察到,对手正越来越多地针对赋予 AI 系统实用性的集成组件,例如自主技能和第三方数据连接器。”

谷歌的报告还详细描述了黑客如何使用“基于人格的越狱”来让 AI 替他们寻找安全漏洞,例如一条示例提示词会指示 AI 假装自己是一名安全专家。黑客还在向 AI 模型输入整个漏洞数据仓库,并以 OpenClaw 为工具进行操作,这些行为表明他们“有兴趣在受控环境中改进 AI 生成的载荷,以便在部署前提高漏洞利用的可靠性”。

来源与参考

  1. 原始链接
  2. Google stopped a zero-day hack that it says was developed with AI

收录于 2026-05-12