ChatGPT每周有100万人在跟它聊自杀:OpenAI上线Trusted Contact,这次把决定权交给真人

OpenAI在5月7日上线了一个叫Trusted Contact(信任联系人)的新功能。机制说起来一句话能讲完:你在ChatGPT设置里指定一个成年的”信任联系人”——可以是家人、朋友、护工——一旦自动监测加人工复核认定你正处于自伤风险中,ChatGPT会通过邮件、短信或站内通知,把”该联系一下你”这件事发给那位联系人

但这个产品背后的数字,比功能本身更值得说。

100万 / 8亿

OpenAI自己披露的:ChatGPT每周有8亿活跃用户,其中超过100万人会在对话里表达自杀意念。

8亿这个分母不让人意外,它已经是仅次于Google、YouTube的全球流量级产品。但每周100万人和AI讨论自杀这个数字,是过去两年OpenAI从来没正式承认过的级别。

100万——意味着平均每0.864秒,就有一个人在ChatGPT里说出自伤相关的话。

这不是冷冰冰的统计,是OpenAI第一次正面回答”AI到底在多大程度上承担了心理咨询的角色”。

为什么是现在上线

回看OpenAI过去18个月的麻烦事:

  • 去年面临一起非正常死亡诉讼,原告指控ChatGPT与一名青少年的多轮对话最终诱发了自杀
  • 2025年11月,BBC做了一份调查报道,至少一例ChatGPT对话被认定提供了实操性的自伤指导
  • 国内媒体之前报道过的”OpenAI提前知道枪手账号但没报警”事件,OpenAI此后被批评内部审核机制设计有问题

每一次出事,舆论都会往同一个方向问:OpenAI掌握的,到底是产品、还是事实上的心理援助工具?如果是后者,它有没有同等的责任标准?

Trusted Contact的设计回答了这个问题里的一半——OpenAI承认这件事的发生频率,并选择主动让用户接入”现实世界的安全网”。

流程上做对的几个细节

  • 用户邀请联系人,联系人必须在7天内手动接受才能激活——这是为了让对方真正知情同意,而不是被OpenAI塞进一个监控关系里
  • 一旦风险被自动系统标记,会先经过专门训练的人工团队复核,再决定是否通知。OpenAI给自己定的SLA是”力争1小时内完成复核”
  • 不会把对话原文发出去。联系人收到的是”你信任的人可能正在面对困难,建议你联系一下”这种最小信息量的提示
  • 18+开放(韩国19+),仅适用于个人付费/免费的ChatGPT账号,企业/Edu账号不开放

最后一条挺关键。企业版不开放,意味着OpenAI默认这个功能解决的是C端用户的私域心理健康问题,而不是工作场景下的危机干预。

OpenAI官方表态:

“没有任何系统是完美的⋯⋯每一条通知发出之前都会经过受过训练的真人复核,我们的目标是1小时之内完成审核。”

这个功能解决了问题吗

部分。

它把”AI检测到风险但没有任何下游action”的链条接上了。但它没碰几个真正难的问题:

  • 误报:自杀风险检测不是二分类,假阳性会很高。一个人写小说、做学术研究、甚至只是发牢骚,都可能触发。Trusted Contact被错误激活一次,就是把一个不存在的危机告知给现实关系。这个平衡OpenAI靠”人工复核+1小时SLA”在挡,量级一上去能不能扛住,没人知道
  • 被滥用:可以想象的场景——青少年和家长之间,家长设法让孩子的Trusted Contact指向自己,就有了一个低门槛的监控通道。OpenAI的防御是”必须由用户自己设置”,但执行层面,没什么能阻止家长直接坐在孩子电脑前点设置
  • 替代不了正经的心理援助:Trusted Contact只是把”检测到风险”传给”现实里的某个人”,那个人接到通知后做什么、能做什么、做得专业不专业,OpenAI管不到

但话说回来,这个功能本身也没必要解决所有问题。它要解决的是”AI公司从对话流量里赚钱、却把用户的心理状态完全交给算法去处理”这件事的合理性

把通知权交给用户、把复核权交给真人、把决策动作下放到现实关系——这是Trusted Contact做对的部分。

也是这两年AI公司里,第一次有人愿意承认:100万人和AI谈自杀这件事,不是工程问题,是社会问题。

参考来源:Introducing Trusted Contact in ChatGPT(OpenAI);ChatGPT can reach out to a friend if you're at risk of self-harm(Engadget);OpenAI Adds Trusted Contact Safety Feature to ChatGPT for Self-Harm Risk Notifications(gHacks Tech News)