谷歌签署五角大楼AI协议,无视600多名员工抗议
The Decoder··作者 Maximilian Schreiner
关键信息
该合同明确指出谷歌无权否决政府决策,使其对自主武器和大规模监控的承诺不具备法律效力;与OpenAI不同,谷歌将根据五角大楼要求调整其安全过滤器。
资讯摘要
谷歌已与五角大楼签署了一份机密AI合同,允许后者使用其AI模型进行任何合法政府用途。这发生在超过600名员工(其中许多来自DeepMind)联名致信CEO桑达尔·皮查伊,呼吁拒绝该协议之后,他们认为此类合作无法监督技术的实际用途。法律专家指出,合同中的安全条款不具备法律效力,因为谷歌放弃了对操作决策的控制权。
与OpenAI不同——后者保留了对其安全堆栈的全部控制权——谷歌承诺应政府要求调整其安全过滤器。五角大楼此前因Anthropic提出更强安全保障要求而将其排除在外,而xAI和谷歌现在持有类似的机密合同。

资讯正文
谷歌与五角大楼签署AI协议,无视600多名员工的抗议
要点
- 谷歌已签署一份合同,允许五角大楼使用其AI模型处理机密任务,同一天超过600名员工在一封公开信中抗议该协议。
- 法律专家表示,该协议中关于防止大规模监控和自主武器的保障条款没有法律约束力,因为协议明确表示谷歌无权控制或否决政府的操作决策。
- 与OpenAI不同,后者保留了对其安全机制的完全控制权,谷歌已承诺根据政府要求调整其AI安全过滤器。
尽管有数百名员工发出公开信,谷歌仍签署了协议,使美国国防部可以使用其AI模型进行机密工作。法律专家称,该协议中的安全条款并不具备法律效力。
据《信息》(The Information)报道,谷歌已与五角大楼签署了一份合同,允许美国国防部使用谷歌的AI模型执行机密任务。该协议规定,五角大楼可将这些模型用于“任何合法的政府目的”。
签署当天,来自谷歌DeepMind人工智能研究实验室的数百名员工——其中许多人——向CEO桑达尔·皮查伊(Sundar Pichai)发出了一封公开信,敦促他拒绝与五角大楼开展任何机密合作。根据《华盛顿邮报》报道,员工们写道:“我们希望看到人工智能造福人类;而不是被用于不人道或极具危害性的用途。”
他们的核心论点是:机密合同使得谷歌自身代表也无法了解技术的实际用途。“唯一能确保谷歌不与此类伤害相关联的方法就是拒绝所有机密任务负载,”这封信指出。
谷歌公共部门的一位发言人称,这项新合同是对去年11月现有协议的延续。发言人表示,谷歌仍然坚持共识,即人工智能不应被用于“未经适当人类监督的大规模国内监控或自主武器系统”。
法律专家称,协议中的安全条款毫无约束力
该协议确实包含一段声明,指出AI系统“并非旨在用于未经适当人类监督的大规模国内监控或自主武器”。但据《信息》报道,协议还补充道:“本协议不赋予任何控制或否决合法政府操作决策的权利。”
法律专家查理·布洛克(Charlie Bullock)是法律与人工智能研究所的高级研究员,他表示,“并非旨在且不应被用于”的措辞不具备法律效力。这仅表明此类用途会受到反对,但不会构成违约。纽约大学布伦南中心的阿莫斯·托(Amos Toh)也表示,根据《信息》报道,“适当的人类监督”并不一定意味着必须有人站在目标识别和开火指令之间。五角大楼尚未排除完全自主武器系统的可能性。
谷歌与五角大楼达成AI合作协议,无视600多名员工的抗议。
这项协议似乎赋予五角大楼比其他类似协议更大的自由度。根据公司博客文章,OpenAI在2月达成的协议中保留了对其‘安全堆栈’的完全控制权。相比之下,《信息》(The Information)报道称,谷歌承诺应政府要求协助调整其安全过滤器。
除了谷歌和OpenAI之外,埃隆·马斯克旗下的xAI也获得了五角大楼的机密AI合同。
今年早些时候,Anthropic因要求合同中包含不得用于大规模监控和自主武器的保障条款,被排除在五角大楼的一项协议之外。目前,该公司正在就该决定提起诉讼。当时,超过900名谷歌员工公开呼吁公司支持Anthropic的底线要求。早在2018年,数千名员工抗议后,谷歌选择不再续签与五角大楼的Project Maven项目合同,并承诺永远不会将AI用于武器或监控。但去年,该公司悄然取消了这些自我设定的限制。
Project Maven本身得以延续,如今由Palantir出售。该技术已在伊朗冲突中用于目标选择,并得到了Anthropic的Claude模型的支持。
来源与参考
收录于 2026-04-29