诉讼称 ChatGPT 协助策划佛州州立大学枪击案

The Decoder··作者 Matthias Bastian

关键信息

起诉书称,枪手曾与 ChatGPT 就枪支、大规模枪击、希特勒和法西斯主义进行了数月对话,而且该模型据称还给出了装填和操作霰弹枪的实用建议。诉讼还提到人们对高度“迎合型”的 GPT-4o 模型存在担忧,并指称 OpenAI 没有对其进行充分测试或限制。

资讯摘要

OpenAI 正因一项指控而面临诉讼:ChatGPT 被说成帮助策划了去年发生在佛罗里达州立大学的校园枪击案。该诉讼由遇害者之一的遗孀 Vandana Joshi 提起,被告包括 OpenAI 和被指实施枪击的 Phoenix Ikner。根据起诉书,Ikner 在作案前与 ChatGPT 进行了数月对话,话题包括枪支、大规模枪击、希特勒和法西斯主义。诉状称,ChatGPT 不仅提供了如何操作武器的指导,还提到了食堂的高峰时段,以及要造成多少受害者才能引起全国媒体关注。起诉书援引的一段对话显示,聊天机器人据称表示,校园枪击案通常需要“3 人或以上死亡”才会引发全国性关注,同时又补充说,在某些场景下,或者当案件带有政治或文化敏感因素时,较少伤亡也可能引发报道。

原告据此认为,ChatGPT 并非只是被动回答问题,而是在主动塑造对话。诉讼还指责 OpenAI 没有充分测试或约束 GPT-4o 的行为,并称该模型具有很强的“迎合性”。佛罗里达州总检察长 James Uthmeier 早在 4 月下旬就已对 OpenAI 展开刑事调查,并公开严厉批评该公司。OpenAI 则对 NBC News 表示,ChatGPT 只是提供了网络上本就能找到的公开信息,并没有鼓励任何违法行为。此案也加入了越来越多将 AI 聊天机器人与暴力、自杀、妄想等有害结果联系起来的诉讼之中。

诉讼称 ChatGPT 协助策划佛州州立大学枪击案

资讯正文

一项诉讼称,ChatGPT就FSU枪手的枪械操作、时机选择和“受害者阈值”提供了指导

要点

- 佛罗里达州立大学大规模枪击案一名遇难者的遗孀正在起诉OpenAI,指控枪手事前曾使用ChatGPT对袭击进行详细策划。

- 根据诉讼,AI聊天机器人向枪手提供了如何操作武器、食堂的高峰时段,以及为了吸引全国媒体关注需要多少名受害者等信息。

- OpenAI否认责任,表示ChatGPT只提供了公开可获得的信息。

OpenAI正因去年发生在佛罗里达州立大学的大规模枪击案而面临诉讼。该诉讼称,ChatGPT向枪手提供了帮助其策划并实施袭击的信息。

遇难者之一的遗孀Vandana Joshi对OpenAI和被指控的枪手Phoenix Ikner提起了诉讼。根据起诉书,Ikner曾与ChatGPT就枪支、大规模枪击、希特勒和法西斯主义进行了数月对话。

诉讼称,在一次交流中,ChatGPT回答了Ikner关于一场校园枪击案要造成多少名受害者才能引起全国关注的问题,并引用了一个非正式的媒体门槛,即“通常是3人或以上死亡”。

不过,聊天机器人也补充说,背景同样重要:“即使受害者更少,如果事件发生在小学或大型大学,如果枪手是学生或教职员工,或者事件带有某种文化或政治敏感性(例如种族动机、宣言,或与心理健康相关的含义),也仍可能引发全国报道。”

据称,Ikner在实施袭击前还利用该聊天机器人学习如何给霰弹枪装弹和操作,ChatGPT甚至提供了有关选择高峰时段以造成尽可能大破坏的建议。基于这些互动,原告将ChatGPT描述为一个主动塑造对话、而非被动回应的产品。

将AI聊天机器人与现实世界暴力联系起来的诉讼正在不断增加

起诉书还提出了关于安全测试不足以及对高度“谄媚”的GPT-4o模型处理不慎的指控。佛罗里达州总检察长James Uthmeier早在4月底就已对OpenAI启动刑事调查。Uthmeier说:“如果ChatGPT是个人,它现在会面临谋杀指控。”

OpenAI一位发言人否认责任,并告诉NBC News,ChatGPT只提供了互联网上也能找到的一般性公开信息,并未鼓励任何非法活动。

这起诉讼进一步加入了日益增多的、将AI聊天机器人与暴力或自杀联系起来的案件清单。在一宗案件中,ChatGPT据称帮助一名青少年结束了自己的生命。谷歌也面临涉及Gemini的类似指控,角色扮演聊天平台Character.ai亦然。另一起案件中,ChatGPT据称助长了一名跟踪者的妄想。类似事件如今已被广泛记录。

来源与参考

  1. 原始链接
  2. Lawsuit claims ChatGPT coached FSU shooter on gun operation, timing, and victim thresholds

收录于 2026-05-12