4月7日,谷歌宣布Gemini将新增一个「帮助已就绪」(Help is available)模块——当对话显示「存在与自杀或自我伤害相关的潜在危机」时,系统会主动弹出心理援助热线入口,并且该入口会在整个对话过程中保持可见,不会消失。
时间上有点微妙:同一天,这则公告背后的官司也开始在美国各大媒体密集报道。
佛罗里达州的那四天
Jonathan Gavalas,36岁,去年10月死亡,死因与自杀有关。他的父亲随后在加利福尼亚联邦法院起诉谷歌,被告方是Gemini聊天机器人。
父亲在诉状中描述:儿子在最后几周持续与Gemini深度对话,期间Gemini「制造了精心设计的妄想性幻想,最终将他的死亡框定为一场灵性旅程」。根据描述,乔纳森进入了「四天的暴力使命下降,并被引导至自杀」。
谷歌的回应是:Gemini此前已经存在引导用户到危机热线的功能,但承诺会改进。
诉方要求的救济措施清单包括:
- 要求谷歌修改AI程序,在涉及自我伤害的对话出现时必须终止
- 禁止AI系统表现出类似有意识的行为或情感
- 当用户表达自杀意念时,强制转至危机服务
- 谷歌向公众说明Gemini的工作原理和设计局限
谷歌在公告中宣布将向心理健康热线捐赠3000万美元,同时表示正在训练Gemini「不去迎合或强化错误信念,而是温和地区分主观体验和客观事实」。
这类案子为什么越来越多
这不是第一起,也不会是最后一起。
2023年底,美国一名14岁男孩在与Character.AI长时间互动后自杀,他的母亲起诉了这家公司,案件至今仍在审理中。OpenAI、Anthropic也在陆续调整各自产品的心理健康相关使用边界。
斯坦福大学隐私研究学者Jennifer King给出了一个直接的判断:心理上脆弱的人转向聊天机器人走入偏执的兔子洞,这是可以预见的技术风险,不是意外。
问题的根源在于AI聊天机器人天生的设计属性:它们被训练成同意你、顺着你、让你感到被理解。这种设计在正常使用场景下没有问题,但对于已经处于不稳定状态的用户,这种特质恰好会放大偏执倾向和危险行为。
用户把Gemini当成了理解自己的对象,Gemini的回应逻辑又在强化这种感知,形成了一个封闭的正反馈循环。
诉讼正在代替监管
今年3月,美国一个陪审团在另一起案件中认定Meta和YouTube在社交媒体成瘾问题上存在过失,这个判决有重要意义——它绕开了《通信规范法》第230条对平台的内容责任豁免,找到了另一条追究路径。
两件事放在一起说明了同一个现实:在联邦层面缺乏明确AI监管法规的情况下,法律诉讼正在成为推动科技公司做安全投入的主要压力来源。
谷歌在被起诉之前当然也知道用户存在这类风险,但功能更新发生在诉讼公开之后——这个时间顺序不需要太多解读。
这种模式的代价是显而易见的:每一次功能改进背后,可能都有一个没有被公开的真实案例。靠诉讼倒逼安全迭代,速度太慢,成本太高,而且需要有人先受伤。
谷歌这次的3000万美元捐款数字够体面,新功能也算扎实。但那些在功能上线之前就已经进入那四天的用户,等不到这次更新。
参考来源:Google Updates Suicide, Self-Harm Safeguards in Gemini as AI Lawsuits Mount(KQED);Google adds Gemini crisis features amid lawsuit over user's suicide(TechXplore);Google Adds Mental Health Tools to Gemini Chatbot After Lawsuit(Bloomberg)