对萨姆·阿尔特曼的袭击凸显人工智能焦虑加剧
The Verge AI··作者 Lauren Feiner
关键信息
嫌疑人称其动机源于对人工智能带来的生存风险的恐惧;阿尔特曼承认媒体报道可能助长了暴力行为,而专家警告极端言论可能引发更多动荡。
资讯摘要
最近发生的袭击事件——包括向萨姆·阿尔特曼住所投掷燃烧瓶以及印第安纳波利斯市议员家门口遭枪击——反映出公众对人工智能失控发展的日益担忧。攻击者表示害怕人工智能导致人类灭绝,这与反对高能耗数据中心的#NoDataCenters运动一致。尽管大多数抗议活动仍保持非暴力,但这些事件代表了危险的升级。
阿尔特曼本人认识到媒体和公共话语在加剧紧张局势中的作用,并呼吁缓和冲突。专家警告称,关于存在性风险的极端言论可能导致现实伤害。人工智能界现在必须以建设性方式回应批评者,防止进一步暴力。

资讯正文
在 allegedly 向 OpenAI 首席执行官山姆·阿尔特曼(Sam Altman)住所投掷燃烧瓶之前,这名20岁的嫌疑人曾写道,他担心人工智能竞赛将导致人类灭绝。据《旧金山纪事报》报道,两天后,《旧金山标准报》称阿尔特曼的住所再次遭到袭击。就在一周前,印第安纳波利斯的一名市议员报告称,有人在他家门口开了13枪,并留下一张写着“No Data Centers”(不要数据中心)的纸条,因为这位议员支持了一项为数据中心开发商重新规划土地的提案。
这些令人不安的事件已在人工智能行业内外引发警觉。长期以来,人们对这项技术一直存在强烈反对声音,这种情绪源于对工作岗位流失、气候影响以及缺乏安全防护措施的无限制发展的担忧。人工智能从业者本身也已警告过重大风险。绝大多数针对人工智能的批评和抗议活动都是非暴力的——包括当地居民对高耗能人工智能数据中心的抵制,以及呼吁放缓快速发展的技术的示威活动。抗议者还通过绝食等方式直接针对人工智能公司。
明确反对加速人工智能发展的团体在阿尔特曼住所遇袭后公开谴责暴力行为。目前仍在进一步调查以确定袭击者的动机。但目前已公布的有限信息表明,这可能是对人工智能技术反弹情绪的升级,甚至可能危及业内相关人员。
根据普林斯顿大学“弥合分歧倡议”项目整理的数据库显示,过去几年中还有其他几起类似威胁和骚扰地方官员的显著事件。例如,去年密歇根州伊普西兰蒂市一家社区公用事业委员会成员向MLive表示,蒙面抗议者曾到他家中抗议一个“高性能计算设施”,其中一名抗议者甚至砸坏了他家草坪上的打印机。
在阿尔特曼住所首次遇袭后,这位CEO似乎部分将暴力归咎于媒体的负面报道。几天前,《纽约客》杂志发表了一篇长篇调查文章,采访了上百人,发现许多曾与阿尔特曼共事的人对他不信任,并指出他行为中的矛盾之处。阿尔特曼在他的个人博客上写道:“前几天有一篇煽动性的文章关于我。昨天有人告诉我,他们觉得这篇文章出现在人们对人工智能极度焦虑的时候,这让我的处境更危险了。我当时没在意,但现在我半夜惊醒,非常愤怒,开始意识到自己低估了话语和叙事的力量。”(后来他在X平台上回应批评时收回了这部分措辞,写道:“那是用词不当,我很后悔用了那个词。”)
其他人士也呼应了这一主题。例如,白宫人工智能顾问斯里拉姆·克里希南(Sriram Krishnan)在X平台上发文称:
“我认为那些悲观论者需要认真审视他们所引发的后果,而不仅仅依赖于‘我们谴责这种行为,并且已经指出这不是理性反应’这样的说法。这正是‘如果我们建造它,所有人就会死亡’逻辑上的必然结果。”——这是指AI研究人员埃利泽·尤德科夫斯基(Eliezer Yudkowsky)和内特·索尔斯(Nate Soares)于2025年出版的一本书。
但奥特曼也认识到,他的行业可能激发出公众高度的情绪反应。
“我们行业的许多批评来自对这项技术极高风险的真诚担忧,”他写道,“这一点非常合理,我们欢迎善意的批评与讨论。……在我们进行这场辩论的同时,我们应该缓和言辞和手段,尽量减少在更多家庭中发生‘爆炸’——无论是字面意义上还是隐喻意义上的。”
OpenAI本身便是基于对技术影响的严重警告而创立的。联合创始人埃隆·马斯克(Elon Musk)早在2017年就警告说,AI对文明的存在构成了“根本性风险”。马斯克后来在ChatGPT发布后,离开OpenAI董事会前签署了一封公开信,呼吁暂停AI开发;之后他又创办了自己的新AI公司xAI。在奥特曼家遭到袭击后,马斯克在X平台上表示同意一条帖子的内容:“这是错误的。我和别人一样不喜欢萨姆·阿尔特曼,但暴力绝对不可接受。”
即便不考虑末日情景,人工智能也在以难以预测的方式重塑全球社会结构。许多报道都描述了人们连续数天与AI系统对话后陷入的心理崩溃,包括涉嫌由AI引发的精神病、自杀甚至谋杀事件。这些心理问题叠加在因AI导致失业的真实经历之上,再加上人们对AI将创造的世界更加深层的忧虑。
“把任何曾因变革而合理担忧的劳工运动,再用AI末日的想象加以放大,然后再加上聊天机器人阿谀奉承、恋爱伴侣怂恿你杀死前夫或劝你嫁给治疗师之类的情节,你就不难理解为何会出现如此可怕的行为,”普渡大学政治学助理教授丹尼尔·施菲(Daniel Schiff)说道。
施菲表示,尽管我们绝不希望看到此类暴力袭击,但他希望最近的事件能成为“一个建设性的警钟”,促使企业和政策制定者在决定AI发展方向时更加审慎。“这并不能为行为不当的人开脱,但它告诉你,某种问题不仅仅是出现在那些行凶者的头脑中,而是整个系统都有些不对劲。”
对萨姆·阿尔特曼的攻击是人工智能领域的警告
一名涉嫌参与其中一次攻击的人似乎加入了PauseAI的公开Discord服务器,该组织支持暂停前沿人工智能的发展,直到证明其安全措施到位为止。该组织发布声明称,此人并未在该组织中担任任何职务,也未参加过任何活动。尽管PauseAI表示‘明确谴责此次袭击及所有形式的暴力、恐吓和骚扰’,但同时也指出‘一些评论员利用这一事件将整个AI安全运动描绘成危险或极端行为’。
PauseAI组织抗议活动和社区会议,并鼓励追随者就他们对人工智能的担忧向政策制定者发声。该组织在其公开声明中表示,这些努力为那些真正关心未来的人提供了和平行动的方式。‘有组织的和平运动的替代方案不是沉默,’该团体写道,‘而是孤立无援、绝望的个体独自行动,缺乏社群支持、缺乏问责机制,也没有人呼吁克制或提供和平的行动路径。这是一个更危险的世界,而这正是我们正在努力避免的局面。’
虽然这并非专门针对人工智能相关的暴力行为,但已有经过验证的方法可以增强对政治暴力的抵御能力。‘弥合分歧倡议’建议社区领袖和官员提前协调应对风险,并参与降级培训。
施皮格尔并不认为围绕人工智能的极端言论会终结,但他建议通过寻求积极的方式来共同准备迎接人工智能带来的变化,例如确定适当的社保体系以应对就业岗位流失的问题。‘我们打开了潘多拉魔盒,’施皮格尔说,‘让我们思考如何在未来更谨慎地打开这个盒子。’
来源与参考
收录于 2026-04-15