OpenAI、Anthropic 和谷歌联手打击AI模型盗用
The Decoder··作者 Maximilian Schreiner
关键信息
这些公司特别指出Deepseek、Moonshot和Minimax是使用对抗性蒸馏的参与者;OpenAI此前曾向国会警告过Deepseek日益复杂的从模型中提取数据的方法。
资讯摘要
OpenAI、Anthropic 和谷歌现在通过前沿模型论坛合作,打击日益严重的对抗性蒸馏威胁——这是一种竞争对手利用授权AI模型输出来训练廉价且未经授权复制品的方法。据美国当局称,这种做法已使美国AI实验室每年损失数十亿美元。这三家公司在情报共享方面采取类似网络安全公司交换攻击数据的做法。
OpenAI此前曾向国会警告,Deepseek正在采用先进手段提取模型数据,而Anthropic则指出了Moonshot和Minimax等其他中国公司也是该行为的积极参与者。这项努力类似于网络安全领域的成熟做法,表明业界正在逐步建立更完善的AI创新保护机制。

资讯正文
OpenAI、Anthropic 和 Google 联手应对未经授权的中国模型复制行为
据彭博社报道,OpenAI、Anthropic 和 Google 已开始合作,打击中国竞争对手对它们的人工智能模型进行未经授权的复制。这三家公司在2023年成立的“前沿模型论坛”(Frontier Model Forum)中共享信息,以检测所谓的对抗性蒸馏(adversarial distillation)。在蒸馏过程中,现有 AI 模型的输出结果被用来训练一个成本更低的仿冒模型。最早的一个例子是斯坦福大学开发的 Alpaca 模型,它证明了这一方法的可行性;但如今这种做法已成为美国公司的严重问题。
彭博社报道称,美国当局估计,对抗性蒸馏每年给美国人工智能实验室带来数十亿美元的收入损失。OpenAI 今年2月已向国会警告称,DeepSeek 正采用越来越复杂的方法从美国模型中提取数据。Anthropic 则指出,DeepSeek、Moonshot 和 Minimax 是参与该行为的主要实体。这种合作模式类似于网络安全行业的工作方式,即企业之间会定期共享攻击数据。
AI 新闻无 hype —— 由人类精选
作为 THE DECODER 的订阅者,您将获得无广告阅读体验、每周 AI 简报、独家「AI Radar」前沿报告(每年6次)、评论区访问权限以及完整档案库。
来源与参考
收录于 2026-04-08