4月23日,Sam Altman给加拿大不列颠哥伦比亚省塔姆布尔里奇(Tumbler Ridge)社区写了一封道歉信。
信里有一句话:「对于我们没有将被封禁的那个账号报告给执法部门,我深感抱歉。」
这件事的时间线,读起来很难受。
发生了什么
2026年2月10日,一名18岁的女孩Jesse VanRootselaar在不列颠哥伦比亚省发动了加拿大近40年来最严重的校园枪击事件。她先在家中枪杀了自己的母亲Jennifer Strang和11岁的同母异父弟弟Emmett Jacobs,然后前往塔姆布尔里奇中学,造成8人死亡,27人受伤。
然后媒体开始挖背景,挖到了ChatGPT。
早在2025年6月,OpenAI就封禁了VanRootselaar的ChatGPT账号,理由是账号出现了「涉及暴力」的内容。封禁发生在枪击案整整八个月前。
OpenAI的内部系统当时标记了这个账号,也有员工察觉到了问题——但公司没有通知加拿大皇家骑警(RCMP)或任何其他执法机构。
枪击案发生之后,OpenAI才将相关情况报告给了警方。
更荒诞的是:2月10日之后,OpenAI在调查中发现,VanRootselaar还有第二个关联账号——尽管系统本来就设计了标记重复违规用户的机制,但漏掉了。
Altman的道歉信写了什么
信是4月23日写的,公开后迅速在加拿大媒体传播。
Altman写道:「这个世界上没有什么比失去孩子更糟糕的了。我无法想象你们经历了什么。」
他也承认了公司的失职:「对于我们没有将被封禁的账号通知执法部门,我深感抱歉,也为你们社区遭受的伤害和无法弥补的损失感到痛心。」
不列颠哥伦比亚省省长David Eby的回应很简短:这封道歉信「必要,但远远不够」。
与此同时,2026年3月,枪击案伤者Maya Gebala的家属已经对OpenAI提起民事诉讼。
OpenAI改了什么
枪击案曝出后,OpenAI副总裁Ann O’Leary在与加拿大联邦部长的沟通中透露了新政策:
过去的标准:用户需要在对话中同时涉及「目标、手段和时间」三个要素,才会触发向执法部门报告的门槛。
新标准:门槛降低了——即便用户没有明确讲出「打算对谁在哪里用什么方式做什么」,只要对话内容涉及暴力意图,就可以触发上报流程。
这个政策调整,放在这个具体案例里看,意味着:如果新标准早一年执行,VanRootselaar的账号在被封禁的同时,就可能已经被报告给警察。
这个问题比这一个案子大
这件事让一个长期存在于AI行业的灰色地带变得具体:AI公司到底有没有义务举报用户?
从商业逻辑看,答案很复杂。AI公司处理的对话量是天文数字,要求实时逐条审查在技术上根本做不到;而且隐私政策、用户信任,都依赖于「我说的话不会直接被举报」这个前提。
但塔姆布尔里奇这个案子说明:当公司内部已经认定某个账号的行为构成风险、并且封禁了账号之后,「要不要通知警察」这一步,不应该是一个模糊的判断题。
OpenAI选择了不通知,八个月后8个人死了。
这件事不会是最后一次出现。AI工具的渗透率还在上升,用它表达过暴力意图的人只会越来越多。在政策框架明确之前,每家AI公司都在自己划线,而这条线在哪里,大多数时候根本没有人知道。
参考来源:OpenAI CEO apologizes to Tumbler Ridge for not alerting police about shooter's account(Global News);OpenAI CEO apologizes to Tumbler Ridge community(TechCrunch);OpenAI's Sam Altman apologizes to Canadian community after failing to flag mass shooter's conversations with its AI chatbot(CNN)