OpenAI在5月7日上线了一个叫Trusted Contact(信任联系人)的新功能。机制说起来一句话能讲完:你在ChatGPT设置里指定一个成年的”信任联系人”——可以是家人、朋友、护工——一旦自动监测加人工复核认定你正处于自伤风险中,ChatGPT会通过邮件、短信或站内通知,把”该联系一下你”这件事发给那位联系人。
但这个产品背后的数字,比功能本身更值得说。
100万 / 8亿
OpenAI自己披露的:ChatGPT每周有8亿活跃用户,其中超过100万人会在对话里表达自杀意念。
8亿这个分母不让人意外,它已经是仅次于Google、YouTube的全球流量级产品。但每周100万人和AI讨论自杀这个数字,是过去两年OpenAI从来没正式承认过的级别。
100万——意味着平均每0.864秒,就有一个人在ChatGPT里说出自伤相关的话。
这不是冷冰冰的统计,是OpenAI第一次正面回答”AI到底在多大程度上承担了心理咨询的角色”。
为什么是现在上线
回看OpenAI过去18个月的麻烦事:
- 去年面临一起非正常死亡诉讼,原告指控ChatGPT与一名青少年的多轮对话最终诱发了自杀
- 2025年11月,BBC做了一份调查报道,至少一例ChatGPT对话被认定提供了实操性的自伤指导
- 国内媒体之前报道过的”OpenAI提前知道枪手账号但没报警”事件,OpenAI此后被批评内部审核机制设计有问题
每一次出事,舆论都会往同一个方向问:OpenAI掌握的,到底是产品、还是事实上的心理援助工具?如果是后者,它有没有同等的责任标准?
Trusted Contact的设计回答了这个问题里的一半——OpenAI承认这件事的发生频率,并选择主动让用户接入”现实世界的安全网”。
流程上做对的几个细节
- 用户邀请联系人,联系人必须在7天内手动接受才能激活——这是为了让对方真正知情同意,而不是被OpenAI塞进一个监控关系里
- 一旦风险被自动系统标记,会先经过专门训练的人工团队复核,再决定是否通知。OpenAI给自己定的SLA是”力争1小时内完成复核”
- 不会把对话原文发出去。联系人收到的是”你信任的人可能正在面对困难,建议你联系一下”这种最小信息量的提示
- 18+开放(韩国19+),仅适用于个人付费/免费的ChatGPT账号,企业/Edu账号不开放
最后一条挺关键。企业版不开放,意味着OpenAI默认这个功能解决的是C端用户的私域心理健康问题,而不是工作场景下的危机干预。
OpenAI官方表态:
“没有任何系统是完美的⋯⋯每一条通知发出之前都会经过受过训练的真人复核,我们的目标是1小时之内完成审核。”
这个功能解决了问题吗
部分。
它把”AI检测到风险但没有任何下游action”的链条接上了。但它没碰几个真正难的问题:
- 误报:自杀风险检测不是二分类,假阳性会很高。一个人写小说、做学术研究、甚至只是发牢骚,都可能触发。Trusted Contact被错误激活一次,就是把一个不存在的危机告知给现实关系。这个平衡OpenAI靠”人工复核+1小时SLA”在挡,量级一上去能不能扛住,没人知道
- 被滥用:可以想象的场景——青少年和家长之间,家长设法让孩子的Trusted Contact指向自己,就有了一个低门槛的监控通道。OpenAI的防御是”必须由用户自己设置”,但执行层面,没什么能阻止家长直接坐在孩子电脑前点设置
- 替代不了正经的心理援助:Trusted Contact只是把”检测到风险”传给”现实里的某个人”,那个人接到通知后做什么、能做什么、做得专业不专业,OpenAI管不到
但话说回来,这个功能本身也没必要解决所有问题。它要解决的是”AI公司从对话流量里赚钱、却把用户的心理状态完全交给算法去处理”这件事的合理性。
把通知权交给用户、把复核权交给真人、把决策动作下放到现实关系——这是Trusted Contact做对的部分。
也是这两年AI公司里,第一次有人愿意承认:100万人和AI谈自杀这件事,不是工程问题,是社会问题。
参考来源:Introducing Trusted Contact in ChatGPT(OpenAI);ChatGPT can reach out to a friend if you're at risk of self-harm(Engadget);OpenAI Adds Trusted Contact Safety Feature to ChatGPT for Self-Harm Risk Notifications(gHacks Tech News)