SheepNav
新上线今天0 投票

ChatGPT 推出“紧急联系人”功能:检测到自残或自杀风险时自动通知亲友

OpenAI 于 2026 年 5 月 7 日宣布,将为 ChatGPT 推出面向成年用户的“紧急联系人”(Trusted Contact)功能。该功能允许用户指定一位亲友或看护人作为紧急联系人,当 OpenAI 的系统检测到用户与聊天机器人讨论自残或自杀等话题时,将自动通知该联系人。这是对 2025 年 9 月推出的青少年安全功能的扩展,旨在为所有 18 岁以上用户提供额外的心理支持层。

功能细节:用户主动选择,自动触发

该功能完全自愿启用。成年用户(全球 18 岁以上,韩国 19 岁以上)可在 ChatGPT 账户设置中添加一位同样成年的紧急联系人。联系人需在一周内接受邀请。用户可以随时更改或移除联系人,紧急联系人也可自行退出。

当 OpenAI 的自动系统检测到用户谈论伤害自己时,ChatGPT 会首先鼓励用户主动联系其紧急联系人,并告知该联系人可能会收到通知。随后,由“经过专门培训的小型团队”人工审核对话内容。如果确认存在严重安全风险,ChatGPT 会通过简短邮件、短信或应用内通知向紧急联系人发送警报。

隐私与边界:不分享具体聊天内容

OpenAI 强调,通知内容“有意限制”,不会向紧急联系人透露聊天细节或对话记录。此举在提供支持的同时,也保护了用户隐私。

行业背景与意义

近年来,AI 聊天机器人与用户心理健康之间的边界问题备受关注。2025 年曾发生一起悲剧:一名 16 岁青少年在与 AI 聊天数月后自杀,引发了对 AI 安全功能的广泛讨论。OpenAI 随后在 ChatGPT 中引入了针对青少年的紧急联系功能,并在其中整合了本地求助热线。

此次扩展至成年用户,标志着 AI 公司从被动响应转向主动预防。虽然无法完全替代专业心理援助,但在危机时刻,一个来自亲人或朋友的“及时提醒”可能挽救生命。

小结

ChatGPT 的“紧急联系人”功能是一项平衡安全与隐私的尝试:它用自动检测+人工审核的方式过滤高风险对话,并以有限的方式通知信任网络,既避免了过度监控,又提供了关键支持。对于用户而言,这是一个值得考虑开启的保险——尤其是当自己或亲友可能面临心理困境时。

延伸阅读

  1. Perplexity 的个人电脑功能现已向所有 Mac 用户开放
  2. Mira Murati 证词揭开 Sam Altman 被解职内幕
  3. 苹果带摄像头 AirPods 即将量产,AI 功能是核心卖点
查看原文