特朗普转向支持AI安全测试

Ars Technica AI··作者 Ashley Belanger

关键信息

CAISI 表示,截至目前已完成约 40 次评估,其中包括尚未发布的前沿模型,而且它通常会接触到安全防护被削弱或移除的模型,以便更全面地评估安全风险。批评者认为该机构可能缺乏足够资金或专业能力,并警告如果没有明确测试标准,“安全”可能会变得没有定义,甚至被政治化。

资讯摘要

本周,特朗普政府态度突然转向,与 Google DeepMind、Microsoft 和 xAI 签署协议,允许政府在前沿 AI 模型发布前后进行安全检查。报道指出,这与特朗普此前的立场形成鲜明对比,因为他曾将拜登时期的自愿安全检查斥为阻碍创新的过度监管,并把美国 AI 安全研究机构更名为“Center for AI Standards and Innovation”,刻意去掉了“安全”一词。报道认为,这一变化与 Anthropic 决定暂不发布 Claude Mythos 有关,因为该模型强大的网络安全能力可能被恶意行为者滥用。白宫国家经济委员会主任 Kevin Hassett 透露,特朗普可能很快签署一项行政命令,要求在先进 AI 系统发布前进行政府测试。

CAISI 在新闻稿中表示,这些自愿协议是在“延续”拜登政府政策的基础上推进的,扩大与行业的合作将有助于其在公共利益关键时刻扩大工作规模。CAISI 主任 Chris Fall 表示,独立、严谨的测量科学对于理解前沿 AI 及其国家安全影响至关重要。CAISI 还称,迄今已完成约 40 次评估,其中包括尚未发布的模型,并且在测试中经常接触安全防护被削弱或移除的系统,以便更全面地评估国家安全相关能力和风险。批评者则担心,政府可能缺乏足够资金或专业知识来有效评估前沿模型,而且如果没有公开透明的标准,所谓“安全”可能会变得模糊,甚至受到政治化影响。

特朗普转向支持AI安全测试

来源与参考

  1. 原始链接
  2. Spooked by Mythos, Trump suddenly realized AI safety testing might be good

收录于 2026-05-07