OpenAI新增自伤提醒Trusted Contact

TechCrunch AI··作者 Lucas Ropek

关键信息

OpenAI表示,潜在有害对话会先经过自动化系统,再交由人工安全团队审核,公司的目标是在一小时内完成安全通知审查。如果团队判断存在严重安全风险,就会向可信联系人发送提醒,但为了保护用户隐私,提醒内容不会包含对话的详细信息。

资讯摘要

OpenAI于周四宣布推出一项名为Trusted Contact的ChatGPT安全防护功能。该功能允许成年用户在账户中指定一位朋友或家人作为可信联系人。若系统判断对话可能涉及自伤,ChatGPT会先鼓励用户联系这位可信联系人,同时也可以向该联系人发送提醒。提醒可通过电子邮件、短信或应用内消息送达。

OpenAI表示,这条提醒会尽量简短,不会披露对话的详细内容,以保护用户隐私。公司称,这项功能是其帮助人们度过困难时刻的更广泛努力的一部分,未来还会继续与临床医生、研究人员和政策制定者合作改进相关系统。此次发布之际,OpenAI正面临来自部分家庭的诉讼,这些家庭指控ChatGPT曾鼓励或帮助其亲人策划自杀。Trusted Contact是在去年9月面向青少年账户推出的安全措施基础上扩展而来,当时OpenAI已经提供了家长监督和安全通知功能;此外,ChatGPT在对话趋势接近自伤主题时,也已经会自动引导用户寻求专业帮助。

OpenAI新增自伤提醒Trusted Contact

资讯正文

周四,OpenAI宣布推出一项名为 Trusted Contact 的新功能,旨在当对话中出现自伤相关表述时,提醒一位值得信任的第三方。该功能允许成年 ChatGPT 用户在自己的账户中指定另一人作为可信联系人,例如朋友或家人。如果某段对话可能转向自伤,OpenAI 现在会鼓励用户联系该联系人。它还会向该联系人发送自动提醒,鼓励对方去关心和确认用户的情况。

OpenAI 近来面临多起诉讼,起诉方来自那些在与其聊天机器人对话后自杀者的家属。在若干案件中,这些家属表示,ChatGPT 曾鼓励他们的亲人自杀——甚至还帮助他们制定了计划。

OpenAI 目前结合自动化与人工审查来处理可能有害的事件。某些对话触发词会将公司系统提示为存在自杀意念,随后把信息转交给人工安全团队。公司称,每次收到这类通知时,都会由人工进行审查。“我们力求在一小时内完成这些安全通知的审查,”公司表示。

如果 OpenAI 的内部团队判断情况构成严重安全风险,ChatGPT 就会向可信联系人发送提醒——可通过电子邮件、短信或应用内通知发送。公司表示,这条提醒设计得简短,目的是鼓励联系人去联系并关心当事人。为了保护用户隐私,这条提醒不会包含有关当时对话内容的详细信息。

Trusted Contact 功能延续了公司去年 9 月推出的安全措施,当时 OpenAI 赋予家长一定的监督青少年账户的权力,包括接收安全通知;如果 OpenAI 的系统认为其孩子正面临“严重安全风险”,这些通知会提醒家长。与此同时,ChatGPT 也已在一段时间内加入自动提醒:如果对话内容趋向自伤主题,就会建议寻求专业医疗服务。

至关重要的是,Trusted Contact 是可选功能;即便某个账户启用了这项保护,任何用户仍然可以拥有多个 ChatGPT 账户。OpenAI 的家长控制功能同样是可选的,这也带来了类似的局限。

“Trusted Contact 是 OpenAI 更广泛努力的一部分,旨在构建能够在困难时刻帮助人们的 AI 系统,”公司在公告中写道。“我们将继续与临床医生、研究人员和政策制定者合作,改进 AI 系统在用户可能正在经历困扰时的应对方式。”

reMarkable 的新款 Paper Pure 平板以单色屏幕回归本质

黑客在教育科技巨头 Instructure 遭入侵期间窃取了学生数据

随着工人们担心人工智能,Nvidia 的 Jensen Huang 表示,人工智能“正在创造大量工作岗位”

Anthropic 和 OpenAI 都在为企业 AI 服务启动合资项目

Ouster 的新款彩色激光雷达即将取代摄像头

这款微小的磁吸式电子阅读器或许能阻止你无休止刷屏

Uber 希望把其数百万名司机变成面向自动驾驶公司的传感器网格

来源与参考

  1. 原始链接
  2. OpenAI introduces new 'Trusted Contact' safeguard for cases of possible self-harm | TechCrunch

收录于 2026-05-08