Anthropic的Mythos AI模型被未经授权用户访问
The Verge AI··作者 Jess Weatherbed
关键信息
未经授权的小组利用Mercor数据泄露获取的信息猜测模型位置,并自获得访问权限以来一直在使用Mythos——但未用于网络安全目的以避免被Anthropic发现。目前没有证据表明此次入侵影响了Anthropic的核心系统。
资讯摘要
Anthropic公司的Mythos AI模型原本专为顶级科技企业和政府设计用于网络安全,却被一小群未经授权的用户访问。该漏洞通过一名第三方承包商提供权限,并结合公开可用的工具定位到模型。该小组隶属于一个专注于未发布AI模型的私人Discord频道,他们提供了截图和实时演示作为证据。
他们声称仅用该模型进行非网络安全用途以规避检测。Anthropic确认了事件,但表示未对其内部系统造成影响。此事件凸显了即使严格控制访问权限,也难以确保强大AI模型的安全性。

资讯正文
Anthropic公司的最危险AI模型刚刚落入了错误的人手中
据彭博社报道,Anthropic公司开发的Mythos AI模型——该公司称该模型若落入错误之人手中可能十分危险——已被“一小群未经授权的用户”访问。一名未具名的组员、自称是Anthropic的第三方承包商告诉彭博社,这个私人在线论坛的成员通过多种手段进入Mythos,包括利用该承包商的权限和“常见的互联网侦查工具”。
根据Anthropic的说法,Claude Mythos Preview是一个新型通用模型,能够识别并利用“在用户指示下任何主要操作系统和主流网页浏览器中的漏洞”。官方对这一模型的访问权限仅限于通过Project Glasswing计划授权的少数几家公司,包括英伟达(Nvidia)、谷歌(Google)、亚马逊网络服务(Amazon Web Services)、苹果(Apple)和微软(Microsoft)。政府机构也在关注这项技术。由于担心该模型可能被武器化,Anthropic目前没有计划公开发布此模型。
Anthropic的一位发言人向彭博社表示:“我们正在调查一起报告,称有人通过我们的第三方供应商环境未经授权访问了Claude Mythos Preview。”目前,Anthropic尚未发现这种未经授权的访问已影响到公司的系统,或超出了第三方供应商的环境范围。
据报道,该模型是在4月7日被非法访问的,当天正是Anthropic宣布将Mythos有限地提供给部分公司用于测试的日子。此次获得非法访问权限的群体尚未被公开确认,但彭博社报道称,其成员来自一个专注于获取未发布AI模型信息的Discord频道。
该团伙通过利用从最近Mercor数据泄露事件中获得的Anthropic其他模型格式的知识,对Mythos的在线位置做出“有根据的猜测”,从而成功访问。自获得访问权限以来,该团伙一直持续使用Mythos,并向彭博社提供了截图和实时演示作为证据。不过据称,他们并未将其用于网络安全目的,以避免被Anthropic察觉。彭博社还报道称,该团伙也已经访问了其他未发布的Anthropic AI模型。
来源与参考