ChatGPT 增加可信联系人安全提醒

The Verge AI··作者 Jess Weatherbed

关键信息

OpenAI 表示,这种提醒是刻意限制的信息通知,不会向可信联系人分享聊天记录或具体内容。若系统判断存在严重风险,ChatGPT 会先鼓励用户联系该联系人,随后由一小支受过专门训练的团队复核,最后才可能向联系人发送简短的电子邮件、短信或应用内通知。

资讯摘要

OpenAI 正在为 ChatGPT 推出一项名为 Trusted Contact 的可选安全功能。该功能允许成年用户指定一名家人、朋友或照护者,当 ChatGPT 检测到用户可能在讨论自伤或自杀时,可以向这位联系人发出提醒。OpenAI 将这一做法描述为经过专家验证的思路:当一个人可能处于危机中时,联系他信任的人,往往能带来重要帮助。公司表示,这项功能会作为 ChatGPT 现有本地化求助热线之外的另一层支持。用户需要在账户设置中添加联系人,且被邀请的人必须在一周内接受邀请后才会生效。OpenAI 还表示,用户之后可以修改或移除该联系人,可信联系人本人也可以随时退出。

公司强调,这种提醒是经过限制的,不会向联系人共享聊天记录。若自动系统检测到可能的自伤语言,ChatGPT 会先鼓励用户联系这位可信联系人,并提示对方可能会收到通知。随后,一小支受过专门训练的审核团队会复核情况,如果判断存在严重安全风险,OpenAI 才会通过电子邮件、短信或 ChatGPT 应用内通知向联系人发出简短提醒。此举是在 OpenAI 9 月推出家长控制和紧急联系人功能之后的延伸,而这些功能是在一则广为报道的青少年自杀事件后推出的,该事件被指与其长期向 ChatGPT 倾诉有关。与此同时,Meta 也推出了类似机制,当 Instagram 上的青少年反复搜索自伤相关话题时,会通知家长。

ChatGPT 增加可信联系人安全提醒

资讯正文

OpenAI 正在为 ChatGPT 推出一项可选的安全功能,允许成年用户为涉及心理健康和安全的担忧指定一名紧急联系人。被指定为“Trusted Contact”的朋友、家人或照护者,如果 OpenAI 检测到某人可能与聊天机器人讨论过自残或自杀等话题,将会收到通知。

OpenAI 在公告中表示:“Trusted Contact 的设计基于一个简单、经过专家验证的前提:当某人可能正处于危机中时,联系一位他认识且信任的人,可能会带来显著不同。它是在 ChatGPT 现有的本地求助热线之外,提供的另一层支持。”

Trusted Contact 功能采用主动选择加入的方式。任何成年 ChatGPT 用户都可以在其 ChatGPT 账户设置中添加另一名成年人(全球范围内为 18 岁及以上,韩国为 19 岁及以上)的联系方式来启用该功能。Trusted Contact 必须在收到邀请后一周内接受邀请。用户可以在设置中移除或编辑所选联系人,而 Trusted Contact 也可以随时选择将自己移除。

OpenAI 表示,这一通知“刻意限制”了分享内容,不会向 Trusted Contact 透露聊天细节或对话记录。如果 OpenAI 的自动化系统检测到用户正在谈论伤害自己,ChatGPT 随后会鼓励用户联系其 Trusted Contact 寻求帮助,并告知对方可能会收到通知。OpenAI 称,随后会有“一小组经过专门培训的人”审查情况;如果对话被判断为显示出严重的安全担忧,ChatGPT 将向 Trusted Contact 发送一封简短的电子邮件、短信,或一条 ChatGPT 应用内通知。

这项功能是在 9 月随 ChatGPT 的家长控制功能一同推出的紧急联系人功能基础上扩展而来。当时,在一名 16 岁少年在数月来向 ChatGPT 倾诉后结束了自己的生命之后,OpenAI 推出了该功能。Meta 也推出了类似功能:如果孩子在 Instagram 上“反复”搜索自残相关话题,就会向家长发出提醒。

来源与参考

  1. 原始链接
  2. ChatGPT’s ‘Trusted Contact’ will alert loved ones of safety concerns

收录于 2026-05-08