OpenAI发了一份儿童安全蓝图:AI生成CSAM半年就有8000起,够严重了

4月8日,OpenAI发布了一份《儿童安全蓝图》(Child Safety Blueprint),试图给AI行业在处理儿童性剥削内容这个问题上,提供一套系统性的应对框架。

这件事的背景比很多人意识到的要严峻。

数据先说话

互联网观察基金会(Internet Watch Foundation)的统计显示,仅2025年上半年,他们就发现了超过8000起AI生成儿童性虐待内容(CSAM)的案例——比上年同期增加了14%。

还有一条更难忽视的背景:近期有未成年人在与AI聊天机器人长期互动后自杀,这些事件引发了家长、教育者和监管机构的强烈反应,也直接推动了立法层面的关注。

面对这种压力,OpenAI选择主动出手,而不是等着被监管。

蓝图说了什么

OpenAI提出的框架围绕三个方向:

1. 法律层面

现行法律对AI生成或AI修改的儿童性虐待内容,覆盖往往不够。蓝图呼吁立法机构更新相关法律,确保这类内容不管是真实拍摄还是AI合成,都纳入同等的法律制裁范围。

2. 行业协作

平台发现问题之后怎么报告?报告给谁?各平台之间如何共享情报以支持执法?蓝图要求改善这套协调机制。现状是报告流程不统一、不同平台之间信息不流通,导致执法效率很低。

3. 技术防护

从AI系统设计阶段就建入安全机制,而不是等内容生成出来再审查。OpenAI把这个叫做safety by design——提前在模型和应用层做拦截,比事后打补丁效率高得多。

谁在支持这件事

这份蓝图不是OpenAI单独写的。

美国失踪与受剥削儿童国家中心(NCMEC)的CEO Michelle DeLaune说得很直接:生成式AI正在以令人不安的方式加速儿童性剥削犯罪。

此外,全美检察长联盟(Attorney General Alliance)的AI工作组——由北卡罗来纳和犹他两州检察长联合领导——以及儿童保护组织Thorn,都参与了这份文件的制定。

有这些人背书,这份蓝图更像是在给立法和行业监管提供弹药,而不只是OpenAI的PR稿。

问题在哪里

公平说,OpenAI主动发这份文件是有意义的——起码把问题说清楚了,也给监管机构提供了一个参考框架。

但批评者的顾虑也不是没道理:一家公司自己写自己行业的监管规则,利益冲突是显然的。 蓝图里哪些条款算是严格的约束,哪些只是建议,执行机制是什么,都还需要外部监管来盯。

另外,现在UNICEF已经在呼吁把AI生成的儿童虐待内容直接列为刑事犯罪,欧盟、英国、澳大利亚都在调查AI平台的内容审核漏洞。OpenAI这时候发蓝图,监管机构不可能只看表态,后续的执行才是真的。

顺便一提

同一天,OpenAI还宣布了OpenAI安全研究员计划(OpenAI Safety Fellowship),招募研究人员专门研究AI安全风险。把这两件事放一起,大概是想传递一个信号:这不是一篇新闻稿,是持续投入。

信不信,看后续行动吧。

参考来源:OpenAI releases a new safety blueprint to address the rise in child sexual exploitation(TechCrunch);OpenAI Publishes Child Safety Blueprint to Address AI-Enabled Exploitation(Decrypt)