美国扩大人工智能预发布国家安全测试

The Decoder··作者 Matthias Bastian

关键信息

CAISI 表示,迄今已完成 40 多次评估,其中包括对未发布模型的测试,而且实验室还可能提供降低安全防护的版本供测试使用。该机构负责人 Chris Fall 表示,严格的测量科学对于理解前沿 AI 及其国家安全影响至关重要。

资讯摘要

美国商务部下属的人工智能标准与创新中心(CAISI)通过与 Google DeepMind、Microsoft 和 xAI 达成新协议,扩大了对未发布前沿 AI 模型的访问权限。该计划的目标是在这些模型公开发布之前,先评估它们是否存在国家安全风险。新的安排是在 CAISI 先前与 Anthropic 和 OpenAI 的协议基础上扩展而来。报道称,早先的协议已经包括联合安全评估,以及有关降低风险方法的研究。

CAISI 表示,迄今已经进行了 40 多次评估,其中一些测试涉及未发布的模型。该机构还会获得安全防护较少的模型版本,以便更有效地探测潜在危险行为。CAISI 负责人 Chris Fall 说,独立且严格的测量科学对于理解前沿 AI 及其国家安全影响至关重要。此次扩张正值 AI 系统越来越擅长发现和利用安全漏洞,以及美中技术竞争不断加剧之际。

美国扩大人工智能预发布国家安全测试

资讯正文

美国政府现在已可在发布前接触来自五家主要实验室的 AI 模型,用于国家安全测试

美国商务部下属的 AI 标准与创新中心(CAISI)已与 Google Deepmind、Microsoft 和 xAI 签署了新协议。其目标是在先进 AI 模型对外公开之前,先对其国家安全风险进行测试。

CAISI 主任 Chris Fall 表示:“独立、严谨的测量科学,对于理解前沿 AI 及其国家安全影响至关重要。”该机构迄今已进行了 40 多项评估,其中一些针对尚未发布的模型。AI 实验室也会提供去除了部分安全护栏的版本供测试使用。

这些新协议是在此前与 Anthropic 和 OpenAI 达成的协议基础上扩展而来,并允许在保密环境中进行测试。原有协议已涵盖联合安全评估以及风险缓解研究。此次扩展正值 AI 模型在寻找并利用安全漏洞方面迅速提升,同时与中国的科技竞赛也在加剧。

来源与参考

  1. 原始链接
  2. US government now has pre-release access to AI models from five major labs for national security testing

收录于 2026-05-06