OpenAI效仿Anthropic限制高安全性AI模型的访问权限

The Decoder··作者 Maximilian Schreiner

关键信息

这款新模型是OpenAI持续推出的“网络安全可信访问计划”的一部分,该计划已包含GPT-5.3-Codex,并向参与者提供1000万美元API积分;Anthropic表示,其Mythos类模型将在建立足够安全措施前不会公开发布。

资讯摘要

OpenAI正在开发一款强大的网络安全AI模型,仅向少数精选公司提供访问权限,此举效仿了Anthropic对其高能力模型Mythos Preview的限制措施。这一决定源于对该模型可能被用于攻击性网络行动的担忧。OpenAI早在今年2月就推出了名为“网络安全可信访问计划”的试点项目,向参与者提供其最先进的网络安全模型GPT-5.3-Codex及价值1000万美元的API积分。

Anthropic则明确表示不会公开发布Mythos Preview,理由是在部署前必须建立充分的安全防护机制。这一趋势表明,顶级AI实验室正优先考虑风险控制,而非广泛开放高度能力模型的访问。

OpenAI效仿Anthropic限制高安全性AI模型的访问权限

资讯正文

OpenAI reportedly following Anthropic's lead in restricting access to powerful cybersecurity AI

据Axios报道,OpenAI正在开发一款具备高级网络安全能力的新AI模型,该模型将仅向少数公司开放。这一做法与Anthropic本周的举措一致,后者已将新推出的Mythos Preview模型的访问权限限制在选定的技术和安全公司范围内,因其强大的黑客能力。

早在今年2月,OpenAI在发布目前最强大的网络安全模型GPT-5.3-Codex后,就推出了名为“Cyber Trusted Access”的试点计划。参与企业可获得用于防御性安全工作的强大模型,并附带1000万美元的API积分支持。目前尚不清楚OpenAI是否会最终扩大这款新模型的可用范围。Anthropic已明确表示不会公开发布Mythos Preview,称此类Mythos模型只有在建立充分的安全防护措施后才会推出。

AI新闻无夸大——由人类精选

来源与参考

  1. 原始链接
  2. OpenAI reportedly following Anthropic's lead in restricting access to powerful cybersecurity AI

收录于 2026-04-10