欧盟的AI法案(AI Act)在2025年开始分阶段实施,到2026年大部分条款已经生效。对开源AI社区来说,影响没有之前担心的那么严重。
开源豁免
AI Act对开源模型有专门的豁免条款——如果你发布的是研究性质的开源模型,很多合规要求不适用。
但有个重要例外:如果你的开源模型被用在了**”高风险”应用场景**(医疗诊断、信用评估、执法等),那该遵守的规则一样要遵守。
实际影响
对大部分开源开发者来说,日常工作几乎没有变化。Meta继续开放Llama的权重,Hugging Face继续运营Hub平台,中小型的开源项目也不需要做额外的合规工作。
受影响最大的是部署端——如果企业把开源模型用在了高风险场景中,企业需要承担合规责任。这等于把合规压力从模型开发者转移到了模型使用者身上。
和中美对比
| 维度 | 欧盟 | 美国 | 中国 |
|---|---|---|---|
| 核心逻辑 | 基于风险分级 | 行业自律 | 国家主导 |
| 对开源态度 | 豁免+例外 | 基本不管 | 需要审批 |
| 执行力度 | 法律强制 | 自愿标准 | 行政命令 |
对中国出海的影响
国内AI公司想进入欧洲市场,需要按AI Act的要求来。这对大公司来说不是大问题(有法务团队处理),但对中小企业是个门槛。
反过来,中国自己的AI监管框架在某些方面比EU AI Act更严格(比如内容审查要求),所以能在国内合规环境下跑通的产品,适配欧盟要求的难度反而不大。
总体来看:AI Act是全球第一部系统性的AI监管法律,它的示范效应可能比具体条款更重要。其他国家和地区在制定AI法规时都会参考这个框架。
参考来源:EU AI Act文本、Hugging Face政策分析