Anthropic的Mythos模型泄露暴露安全漏洞
The Verge AI··作者 Robert Hart
关键信息
此次泄露利用了AI训练数据提供商Mercor泄露的信息,加上一名曾评估Anthropic模型人员的内部知识。Anthropic本可通过自身日志工具发现异常,却未能密切监控。
资讯摘要
Anthropic的AI模型Mythos被一小群未经授权的用户访问,他们通过猜测其在线位置获得访问权限,利用的是Mercor(一家提供AI训练数据的公司)泄露的数据。其中一人因合同工作曾评估过Anthropic模型,拥有内部信息。尽管未造成严重后果——因为这群人只是用来测试而非恶意用途——但这一事件暴露出Anthropic在访问控制和监控系统上的重大缺陷。
专家指出这类攻击非常常见且可避免,尤其是Mercor的泄露在Mythos发布前已被知晓。Anthropic未能针对已知风险采取行动,与其宣传的负责任AI部署理念相悖,也引发了人们对其是否真正重视安全而非炒作的质疑。

资讯正文
Anthropic公司对Claude Mythos模型的严格发布计划出现了尴尬的局面。在花费数周时间强调该AI模型在网络安全方面的能力如此强大,以至于公开发布过于危险之后,这个模型还是落入了错误的人手中。
据彭博社报道,一个“未经授权的小团体”自Anthropic宣布将该模型提供给少数企业测试之日起,就已经获得了对Mythos的访问权限——而Mythos的存在最初正是通过泄露事件被曝光的。Anthropic表示正在调查此事。这对一家以重视AI安全著称、并大力宣传其最新模型网络安全能力的公司来说,无疑是一次难堪的打击。
从技术角度看,这次Mythos泄露事件显得极其低级。彭博社报道称,该团伙是通过“对模型在线位置做出合理猜测”,利用Mercor公司(一家制作AI训练数据的企业)遭黑客攻击后暴露的其他Anthropic模型信息,再加上一名成员因合同工作评估Anthropic模型而获得的访问权限,才成功获取了Mythos的访问权。他们并非通过高超的技术手段或大规模窃取模型实现入侵,而是结合了内部知识和一次幸运的猜测。
安全漏洞不可避免,而且泄露黑客用来猜测Mythos位置信息的源头是Mercor,而非Anthropic。英国皇家联合研究所(RUSI)的研究员皮娅·许施告诉我,没有任何公司能完全做到无懈可击,人类往往是安全链条中最薄弱的一环,尽管“一开始看起来确实有点运气好”,因为并未造成严重后果。
但这并非完全是运气问题。这类基于合理推测的攻击方式在业内非常常见,而Mercor的泄露事件早在Mythos发布前就已广为人知。安全研究员卢卡斯·奥莱尼克告诉我,这是一种“完全可以想象”的失败,网络安全行业在过去20年里一直在处理类似情况。因此,Anthropic本应预见到这种风险,并提前做好准备,特别是当它知道自己信息已被泄露时。
Anthropic似乎也有能力发现这一入侵。奥莱尼克表示,该公司能够“记录和追踪模型使用情况”,这应该足以阻止未经授权或恶意的访问,尤其是考虑到Mythos的发布原本就是高度受限的。显然,Anthropic没有足够严密地监控系统——鉴于它声称该模型极其危险,人们有理由质疑为何会这样。
根据彭博社的说法,该团体并未用Mythos进行网络安全相关任务,部分原因是他们只想玩一玩这款新模型,另一部分原因是这么做可能会引起Anthropic的警觉。如果Anthropic关于Mythos的宣传可信,那这算是不幸中的万幸。该公司将Mythos称为‘安全领域的分水岭’,声称它发现了‘每个主流操作系统和网页浏览器’中的漏洞,并强调其发布必须协调进行,以便有时间‘加强全球网络防御体系’。
Anthropic的Mythos漏洞事件令人难堪。
Anthropic习惯使用夸张且令人警觉的语言,这使得人们很难清晰地对其进行追问,包括暗示其Claude模型可能具备意识。尽管如此,早期从拥有访问权限的各方获得的报告显示,Mythos在网络安全方面尤其出色。Mozilla首席技术官鲍比·霍利说,它在Firefox 150中发现了数百个漏洞,或许终于能让防御方在与攻击者的对抗中取得全面胜利。毫不意外的是,全球各地的政府和金融机构都急于获取这一模型。据报道,美国国家安全局(NSA)及其他美国机构已获得访问权限,尽管Anthropic被列为供应链风险企业;不过目前的部署似乎绕过了美国网络安全机构CISA。
这次漏洞是由一名记者而非Anthropic自己发现的,这也引发了明显的疑问:这是否是一次孤立事件? Hüsch表示:“这真的说明了能够做到这一点的人群范围有多广,即使他们并不具备高度复杂的技术手段。” Anthropic可能会彻底审查其供应链,以查明漏洞原因并填补缺口,但她指出,有许多不同类型的参与者都希望获得此类模型的访问权限,其中一些甚至资金雄厚。没有任何理由认为其他获得访问权限的人会像《彭博社》报道的那个团体一样克制。
某种程度上,Anthropic是在自食其果。该公司一直将自身定位为比竞争对手更重视AI安全的企业,从而树立起极高的模型安全预期,但这种高期望与实际表现出的粗心大意形成鲜明对比;Mythos正是通过一种基础且可预见的失败暴露出来,这一点更加凸显了问题所在。更糟糕的是,Anthropic将Mythos吹捧为一种过于强大、危险到不适合公开发布的新工具,反而使其成为显眼的目标——无论是恶意行为者还是单纯想挑战自己的黑客。
这甚至不是围绕Mythos发生的第一次尴尬安全事件。该模型的存在曾因一个“未受保护的数据集合”意外泄露,该数据集中包含其网站的内容。现在,这个模型又通过一个完全可以预料的漏洞被秘密访问,而Anthropic本应修补这个漏洞却忽略了。完美是不可能的,但对于一家自封为AI安全先锋的企业来说,这样的基本失误难以解释,即便它确实遭遇了一些不幸。
对Hüsch而言,整个事件可以用一个词来概括:羞辱。“Anthropic声称自己处于所有这些技术的最前沿,同时也把自己定位为负责任的行为体,”她说,“但现在这么快、通过如此简单的尝试就被未经授权访问,对他们来说确实是极大的羞辱。”
来源与参考
收录于 2026-04-24