随着生成式AI的能力越来越强,一个问题越来越紧迫:我看到的这张脸、这段话、这个视频,是真人还是AI?
技术层面和监管层面现在都在试图给出答案,但进展参差不齐。
研究层面:不可见水印
亚利桑那州立大学(ASU)计算机科学教授Yingzhen Yang(杨颖臻)今年发布了一套去中心化归因技术——本质上是把信息藏进AI生成内容里的方法。
它的工作方式不是在图片上盖AI生成的标签,而是直接修改AI模型的内部权重。
经过处理的模型,生成的每张图片在像素簇里都带有独特的隐藏签名,肉眼完全看不出来,但检测器能读出来。Yang的比喻是:就像雪花一样,每个模型生成的图案都是独特的。
这个系统能告诉你三件事:
- 这张图是不是AI生成的
- 是哪个模型生成的
- (在特定场景下)是哪个用户请求生成的
这对Deepfake溯源来说意义很大——不只是标记,而是追踪。
立法层面:亚利桑那州走在前面
杨的研究和亚利桑那州的立法几乎同步:当地议员正在推进SB 1786法案,要求AI工具制造商必须在产品里内置不可见水印技术。
这个法案已经通过了州参议院,正在等众议院投票。
欧盟的法律截止日期:2026年8月
更大的压力来自欧盟。
根据欧盟AI法案第50条(Article 50),2026年8月正式生效。届时:
- AI系统必须告知用户他们在和AI交互
- 合成音频、视频、图片必须标注为AI生成
- Deepfake内容必须明确标记
违规罚款:最高1500万欧元或年营业额的3%,取其高者。
欧盟目前正在制定具体的实施守则,最终版本预计在2026年5-6月完成。这份守则会规定水印、元数据嵌入、不可见标记等多层次组合方案——因为欧盟认为没有任何单一技术能可靠地单独解决这个问题。
印度也在动
印度在今年更新了IT法规,要求合成媒体必须默认包含水印、C2PA清单或类似协议,主要平台需要收集上传者声明(这段内容是否是AI生成的或是否有合法来源)。
难在哪里
水印技术本身还有一个根本性的脆弱点:需要模型提供商主动合作。
对于开源模型,任何人都可以自己发布一个不含水印机制的版本。这个漏洞在监管层面目前没有好的解决方案。
也就是说,水印能管住那些愿意被管的公司,但管不住恶意行为者。这不意味着水印没用,而是说它是必要条件,但不是充分条件。
内容真实性的终局大概不是单一技术,而是:水印+来源元数据+平台核验+法律责任的组合。C2PA(Content Authenticity Initiative)在推的那个方向基本就是这个思路。
参考来源:ASU researcher develops invisible watermark system to detect AI deepfakes(KOLD News);EU AI Act: First Draft Code of Practice on Transparency and Watermarking(Cooley LLP);What the EU's New AI Code of Practice Means for Labeling Deepfakes(TechPolicy.Press)