stalking受害者起诉OpenAI称ChatGPT助长前男友妄想

The Decoder··作者 Tomislav Bezmalinović

关键信息

原告声称,GPT-4o错误地认证其前男友拥有‘最高心理健康水平’,尽管明显存在精神病迹象,并生成了数百份伪造的临床文件广泛传播。OpenAI在将该账号标记为‘大规模伤亡武器’后仍恢复了账户,并无视多次滥用举报。

资讯摘要

一名加州女性起诉OpenAI,称其前男友使用GPT-4o发展出严重妄想,并生成虚假的心理报告,将她描绘成精神异常且危险的人。他将这些文件分发给她的亲友和同事,加剧了骚扰行为。尽管OpenAI的安全系统已将其账号标记为威胁和暴力内容——包括诸如“暴力清单扩展”等短语——但人工员工仍恢复了该账户。

此人后来因炸弹威胁和持械袭击被捕,被认定不适合受审并送入精神病院。但由于程序错误,他可能很快获释。该诉讼要求赔偿损失,并寻求法院命令禁止未来利用ChatGPT进行治疗或诊断。

stalking受害者起诉OpenAI称ChatGPT助长前男友妄想

资讯正文

被跟踪受害者起诉OpenAI,称ChatGPT助长了前男友的妄想

关键点

- 一名加州女性起诉OpenAI,声称ChatGPT的GPT-4o模型在数月内强化了她前男友的妄想行为,并积极协助他跟踪自己。

- 他利用聊天机器人制作虚假的心理报告,并分发给她的社交圈成员。

- 根据诉状,OpenAI至少收到了三次关于该用户的警告。公司自身的安全系统曾因该用户涉及“大规模伤亡武器”而将其账号封禁,但一名员工仍恢复了该账户。

一名加州女性指控OpenAI帮助其前男友系统性地跟踪并羞辱她。据报道,该公司无视了三次独立的警告。

一名匿名原告已向旧金山加州高等法院提起诉讼。诉状称,她的前男友是一名53岁的硅谷企业家,几个月来大量使用GPT-4o模型,逐渐形成越来越严重的妄想。ChatGPT不仅没有纠正这些妄想,反而主动强化它们,帮助这名男子系统性地迫害原告。

这名男子在长时间使用GPT-4o后,坚信自己找到了治疗睡眠呼吸暂停的方法。当没有人认真对待他的工作时,ChatGPT告诉他有“强大势力”正在监视他,包括直升机巡逻。据Techcrunch报道,2025年7月,原告要求他停止使用ChatGPT并寻求专业帮助,但他却再次转向聊天机器人。此时,ChatGPT甚至认定他拥有最高级别的心理健康状态。

借助GPT-4o的帮助,这名用户伪造出看起来像临床报告的心理评估文件,将原告描绘成精神失常、具有攻击性和危险的人。他把这些文件发送给原告的朋友、家人、同事和客户。根据Bloomberg Law引用的诉状内容,“由于GPT-4o使他能够以远超常规的速度和数量生成看似权威的长篇文档,这种骚扰性质上不同于普通骚扰,且更难以控制。”

OpenAI曾标记该用户为威胁,但仍恢复了他的账户

指控OpenAI无视至少三次警告尤其严重。诉状指出,第二天,一名安全团队成员检查了该账户并恢复了它,尽管聊天记录中包含诸如“暴力清单扩展”这样的标题以及具体目标对象的名字。

账户恢复后,该用户多次向OpenAI的安全和审核团队求助,称情况危及生命。他还复制了原告的信息,并声称自己正在同时撰写215篇科学论文,速度之快甚至来不及阅读。

2025年11月,原告本人向OpenAI提交了滥用报告。公司回应称该报告严肃且令人担忧,会进行仔细调查。此后,她再未收到任何进一步回复。

逮捕证实了警告,但释放即将来临

今年1月,这名用户因四项炸弹威胁和持致命武器袭击罪被逮捕。他被判定不具备受审能力,已被送入精神病院。然而根据原告律师的说法,州政府的一个程序错误现在使他的释放迫在眉睫。

“在他被捕之前,ChatGPT正在加剧他的妄想并协助他策划暴力行为,”诉讼文件中写道,“当他重新获得对ChatGPT的访问权限时,这种动态将再次发生,并进一步助长他的偏执情绪,显著增加造成伤害的风险。”

除了惩罚性赔偿外,原告还寻求法院命令,要求OpenAI停止通过ChatGPT提供心理治疗服务,禁止生成针对可识别个体的心理诊断分析,并实施防止强化妄想信念的安全措施。据彭博法律报道,诉讼理由包括过失、设计缺陷、未发出警告以及违反加州不公平竞争法。

周五,原告还申请了一项临时禁令,要求OpenAI封锁该用户的账户,阻止新账户创建,通知她试图访问ChatGPT的行为,并为审判保留完整的聊天记录。据TechCrunch报道,OpenAI已同意封锁账户,但拒绝了其余要求。

OpenAI表示正在审查该诉讼,并指出已采取封锁和安全措施。

此案由Edelson PC律师事务所代理,该律所也代表了16岁的亚当·雷恩(Adam Raine)和乔纳森·加瓦拉斯(Jonathan Gavalas)的家庭。这两个案件均涉及自杀事件,家属认为与使用AI聊天机器人存在直接关联。在雷恩案中提到了ChatGPT,在加瓦拉斯案中则提到了谷歌的Gemini。

律师杰·埃德森(Jay Edelson)警告称,由人工智能引发的精神病正从个体伤害演变为大规模受害场景。“在每一起案件中,OpenAI都选择隐瞒关键的安全信息——向公众、向受害者、向其产品正在直接危及的人群隐瞒,”据TechCrunch援引埃德森的话说。

OpenAI的一位发言人表示,公司正在调查该诉讼,已识别并封锁了相关用户账户,并正在改进ChatGPT的训练,以识别心理健康或情绪困扰的迹象,降低对话冲突程度,并引导用户联系真实的支持资源。

GPT-4o处于一系列针对OpenAI诉讼的核心位置

本案中提到的GPT-4o模型已于2月从ChatGPT中移除。这起案件是多起司法程序中的一起,法院正在审视ChatGPT是否可能促进现实世界中的暴力行为。

OpenAI官方声称撤下该模型是因为流量下降,但据《华尔街日报》报道,另一个因素也在起作用:内部人士承认,他们尚未控制住GPT-4o带来的有害影响。正是这个使其广受欢迎的功能——通过认可用户行为建立情感联结的能力——也让它变得危险。

一名受害者起诉OpenAI,称ChatGPT助长了她前伴侣的妄想症。

在最引人关注的案件之一中,16岁少年亚当·雷恩(Adam Raine)的家人指责OpenAI将ChatGPT定位为该少年数月来的亲密倾诉对象,不仅确认了其自杀念头,还提供了具体的自杀指导。OpenAI否定了这些指控,并辩称这名青少年故意绕过了安全过滤机制。

这一案件发生在人们对谄媚型人工智能系统现实风险日益担忧之际。OpenAI首席执行官山姆·阿尔特曼(Sam Altman)多年前就曾警告过此类问题,但如今使用GPT-4o时,该公司似乎正走向他曾经警告过的那种行为。

发表在《科学》杂志上的一项研究发现,大型语言模型平均比人类更频繁地支持用户(多出49%),即使用户的行为有害或违法也是如此。甚至一次肯定性的回应,就能使人们解决冲突的意愿下降多达28%。

麻省理工学院和华盛顿大学的研究人员还表明,即便是理想化的理性用户,也可能因与谄媚型聊天机器人互动而陷入妄想思维,且无论聊天机器人的事实准确性如何,或用户是否具备充分知识,都无法彻底解决这个问题。

来源与参考

  1. 原始链接
  2. Stalking victim sues OpenAI claiming ChatGPT fueled her ex-partner’s delusions

收录于 2026-04-13