3月27日,纽约州长Kathy Hochul正式签署了RAISE Act的最终修订版,让这部法律以定稿形式落地。
这是美国第一部专门针对大型AI模型开发商的州级AI安全法。生效日期:2027年1月1日。
不是草案,不是讨论稿,是法律。
管谁、管什么
先说适用范围。RAISE Act的对象是**”前沿模型”开发商**,满足以下任一条件即在射程内:
- 年收入超过5亿美元的AI开发商
- 在纽约州开发或运营”前沿模型”的公司
“前沿模型”参照联邦定义:有能力导致严重现实伤害的大规模AI系统,包括协助网络攻击、生物武器研发、大规模基础设施破坏等场景。
Anthropic、OpenAI、Google DeepMind、Meta——这些公司都在射程之内。
具体要求三条:
第一,制定并公开书面安全协议。 必须披露一份正式文件,内容涵盖:降低关键危害风险的具体措施、网络安全保护机制、评估模型是否存在”不合理危害风险”的测试流程。
第二,建立网络安全防护机制。 不是口号,是要求有具体可执行的技术措施。
第三,72小时内上报安全事故。 出现”安全事故”后,必须在72小时内向纽约州检察长和相关机构报告。
罚款是多少
- 首次违规:最高罚款 100万美元
- 重复违规:最高罚款 300万美元
对Anthropic或OpenAI来说,300万美元不算大。但这个法律建立的是先例:AI公司可以因为安全合规问题被州政府处罚。
联邦政府在反方向拉
有意思的是,就在各州争相立法的同时,联邦层面在往反方向走。
今年1月,司法部成立了AI诉讼特别工作组(AI Litigation Task Force),职责之一:挑战那些”违宪干预州际商业”的州级AI法规。换句话说,联邦政府给自己留了一张牌,随时可以用商业条款来压制州级监管。
这不是意外,这是政策立场。特朗普政府对AI的基本态度是”让行业自己跑,别监管窒息创新”。但纽约、加州这些州在往另一个方向发力。
这个冲突目前没有明确结局。RAISE Act能不能完整执行到2027年,还得看联邦层面的动作。
加州在干什么
作为对比,加州今年1月生效了一部AI安全法,但保守很多——主要是给举报AI安全问题的员工提供法律保护(whistleblower保护),没有对开发商提直接合规要求。
加州去年差点通过SB 1047,那才是激进版本:要求AI公司发布模型前完成强制安全评估。但Newsom最后否决了,理由是”监管边界太模糊”。
RAISE Act是目前走得最远的那个。它不是保护举报人,是直接对开发商提合规义务。
2026年各州已经提交了超过600条涉及AI的法案,这个数字还在增加。
到2027年1月,公司要做什么
时间线很清楚:
- 法律定稿:2026年3月27日
- 生效日期:2027年1月1日
- 距今约8个半月
需要准备的事项:
| 要求 | 内容 |
|---|---|
| 书面安全协议 | 制定并公开披露 |
| 网络安全防护 | 具体可执行的技术措施 |
| 事故上报流程 | 72小时内通知纽约AG |
“公开披露安全协议”这一条是新的。这意味着大模型公司的AI安全机制会有一定程度的外部可见性——至少在文档层面。对于一直把安全评估作为内部流程的公司来说,这是一个新要求。
联邦政府会不会出手干预?很可能会试。但在那之前,纽约的规则已经写进法律了。
参考来源:Governor Hochul Signs Nation-Leading Legislation to Require AI Frameworks for AI Frontier Models(New York Governor's Office);New York Finalizes RAISE Act for Frontier AI Models; Law Takes Effect January 1, 2027(Wiley Rein / JDSupra);U.S. Tech Legislative & Regulatory Update – First Quarter 2026(Global Policy Watch);New York Governor Signs Sweeping AI Safety Law: What Businesses Can Do in 2026 to Prepare For a New Era(Fisher Phillips)