OpenAI效仿Anthropic限制高安全性AI模型的访问权限
The Decoder··作者 Maximilian Schreiner
关键信息
这款新模型是OpenAI持续推出的“网络安全可信访问计划”的一部分,该计划已包含GPT-5.3-Codex,并向参与者提供1000万美元API积分;Anthropic表示,其Mythos类模型将在建立足够安全措施前不会公开发布。
资讯摘要
OpenAI正在开发一款强大的网络安全AI模型,仅向少数精选公司提供访问权限,此举效仿了Anthropic对其高能力模型Mythos Preview的限制措施。这一决定源于对该模型可能被用于攻击性网络行动的担忧。OpenAI早在今年2月就推出了名为“网络安全可信访问计划”的试点项目,向参与者提供其最先进的网络安全模型GPT-5.3-Codex及价值1000万美元的API积分。
Anthropic则明确表示不会公开发布Mythos Preview,理由是在部署前必须建立充分的安全防护机制。这一趋势表明,顶级AI实验室正优先考虑风险控制,而非广泛开放高度能力模型的访问。

资讯正文
OpenAI reportedly following Anthropic's lead in restricting access to powerful cybersecurity AI
据Axios报道,OpenAI正在开发一款具备高级网络安全能力的新AI模型,该模型将仅向少数公司开放。这一做法与Anthropic本周的举措一致,后者已将新推出的Mythos Preview模型的访问权限限制在选定的技术和安全公司范围内,因其强大的黑客能力。
早在今年2月,OpenAI在发布目前最强大的网络安全模型GPT-5.3-Codex后,就推出了名为“Cyber Trusted Access”的试点计划。参与企业可获得用于防御性安全工作的强大模型,并附带1000万美元的API积分支持。目前尚不清楚OpenAI是否会最终扩大这款新模型的可用范围。Anthropic已明确表示不会公开发布Mythos Preview,称此类Mythos模型只有在建立充分的安全防护措施后才会推出。
AI新闻无夸大——由人类精选
来源与参考
收录于 2026-04-10