Anthropic在软件更新中泄露近2000个源代码文件

TechCrunch AI··作者 Connie Loizos

关键信息

泄露的文件是软件框架的一部分,而非模型本身,包括AI行为指令、工具使用规则和限制边界。该漏洞在数小时内被一位安全研究人员发现。

资讯摘要

以AI安全著称的Anthropic公司在其Claude Code工具的一次常规软件更新中,意外泄露了近2000个源代码文件和超过51.2万行代码。这紧随几天前另一次内部文档泄露之后。泄露内容是产品完整架构的一部分,已成为OpenAI开发者工具的重要竞争者。虽然不是AI模型本身,但代码揭示了其如何集成开发流程并设置边界。

安全研究人员迅速分析后称其为“生产级开发体验”,而不仅仅是API封装。Anthropic将事件归因于人为疏忽导致的打包错误,但内部团队可能面临严重审查。这一事件凸显了即使在强调安全的公司中,快速开发周期也可能带来风险。

Anthropic在软件更新中泄露近2000个源代码文件

资讯正文

Anthropic 本月风波不断 | TechCrunch

Anthropic 塑造其公众形象的核心理念是:它是一家谨慎行事的人工智能公司。该公司发布关于人工智能风险的详细研究,聘请了该领域最优秀的研究人员,并对开发如此强大技术所伴随的责任问题发表过明确观点——甚至到了如今正与美国国防部对簿公堂的地步。然而周二,公司内部有人忘了勾选一个关键选项。

值得注意的是,这已经是本周第二次发生类似事件。上周四,《财富》杂志报道称,Anthropic 不慎将近3000份内部文件公开,其中包括一份尚未宣布的新模型草稿博客文章。

周二发生的事件如下:当 Anthropic 推出 Claude Code 软件包的 2.1.88 版本时,意外包含了一个文件,暴露了近2000个源代码文件和超过51.2万行代码——基本上就是其最重要产品之一的完整架构蓝图。安全研究员曹凡·邵(Chaofan Shou)几乎立刻发现了这个问题,并在 X 平台上发帖指出。Anthropic 向多家媒体发表声明时语气轻松:“这是由于人为失误导致的版本打包问题,并非安全漏洞。”(我们猜测,内部情况可能没这么淡定。)

Claude Code 不是一个小产品。它是一款命令行工具,允许开发者使用 Anthropic 的 AI 编写和编辑代码,已发展到足以让竞争对手感到不安的程度。据《华尔街日报》报道,OpenAI 在推出视频生成产品 Sora 六个月后就将其下线,转而聚焦于开发者和企业客户,部分原因正是为了应对 Claude Code 日益增长的势头。

泄露的内容并非 AI 模型本身,而是围绕模型的软件框架——即告诉模型如何行为、使用哪些工具以及边界在哪里的指令。开发者们几乎立即开始发布详细分析,其中一位称这款产品为“可直接投入生产的开发者体验,而不仅仅是一个 API 包装层”。

这是否会对未来产生持久影响,还是留给开发者来判断。竞争对手或许会从中获得启发;但与此同时,行业变化速度极快。

无论如何,在 Anthropic 的某个角落,你完全可以想象有一位非常有才华的工程师正在安静地思考自己是否还保有这份工作。希望这次不是同一位工程师,或者同一团队,也就是上周晚些时候那批人。

来源与参考

  1. 原始链接
  2. Anthropic is having a month | TechCrunch

收录于 2026-04-02