美国第一个针对大模型公司的AI安全法落地:纽约RAISE Act定稿,重复违规罚300万

3月27日,纽约州长Kathy Hochul正式签署了RAISE Act的最终修订版,让这部法律以定稿形式落地。

这是美国第一部专门针对大型AI模型开发商的州级AI安全法。生效日期:2027年1月1日

不是草案,不是讨论稿,是法律。

管谁、管什么

先说适用范围。RAISE Act的对象是**”前沿模型”开发商**,满足以下任一条件即在射程内:

  • 年收入超过5亿美元的AI开发商
  • 在纽约州开发或运营”前沿模型”的公司

“前沿模型”参照联邦定义:有能力导致严重现实伤害的大规模AI系统,包括协助网络攻击、生物武器研发、大规模基础设施破坏等场景。

Anthropic、OpenAI、Google DeepMind、Meta——这些公司都在射程之内。

具体要求三条:

第一,制定并公开书面安全协议。 必须披露一份正式文件,内容涵盖:降低关键危害风险的具体措施、网络安全保护机制、评估模型是否存在”不合理危害风险”的测试流程。

第二,建立网络安全防护机制。 不是口号,是要求有具体可执行的技术措施。

第三,72小时内上报安全事故。 出现”安全事故”后,必须在72小时内向纽约州检察长和相关机构报告。

罚款是多少

  • 首次违规:最高罚款 100万美元
  • 重复违规:最高罚款 300万美元

对Anthropic或OpenAI来说,300万美元不算大。但这个法律建立的是先例:AI公司可以因为安全合规问题被州政府处罚。

联邦政府在反方向拉

有意思的是,就在各州争相立法的同时,联邦层面在往反方向走。

今年1月,司法部成立了AI诉讼特别工作组(AI Litigation Task Force),职责之一:挑战那些”违宪干预州际商业”的州级AI法规。换句话说,联邦政府给自己留了一张牌,随时可以用商业条款来压制州级监管。

这不是意外,这是政策立场。特朗普政府对AI的基本态度是”让行业自己跑,别监管窒息创新”。但纽约、加州这些州在往另一个方向发力。

这个冲突目前没有明确结局。RAISE Act能不能完整执行到2027年,还得看联邦层面的动作。

加州在干什么

作为对比,加州今年1月生效了一部AI安全法,但保守很多——主要是给举报AI安全问题的员工提供法律保护(whistleblower保护),没有对开发商提直接合规要求。

加州去年差点通过SB 1047,那才是激进版本:要求AI公司发布模型前完成强制安全评估。但Newsom最后否决了,理由是”监管边界太模糊”。

RAISE Act是目前走得最远的那个。它不是保护举报人,是直接对开发商提合规义务。

2026年各州已经提交了超过600条涉及AI的法案,这个数字还在增加。

到2027年1月,公司要做什么

时间线很清楚:

  • 法律定稿:2026年3月27日
  • 生效日期:2027年1月1日
  • 距今约8个半月

需要准备的事项:

要求 内容
书面安全协议 制定并公开披露
网络安全防护 具体可执行的技术措施
事故上报流程 72小时内通知纽约AG

“公开披露安全协议”这一条是新的。这意味着大模型公司的AI安全机制会有一定程度的外部可见性——至少在文档层面。对于一直把安全评估作为内部流程的公司来说,这是一个新要求。

联邦政府会不会出手干预?很可能会试。但在那之前,纽约的规则已经写进法律了。

参考来源:Governor Hochul Signs Nation-Leading Legislation to Require AI Frameworks for AI Frontier Models(New York Governor's Office);New York Finalizes RAISE Act for Frontier AI Models; Law Takes Effect January 1, 2027(Wiley Rein / JDSupra);U.S. Tech Legislative & Regulatory Update – First Quarter 2026(Global Policy Watch);New York Governor Signs Sweeping AI Safety Law: What Businesses Can Do in 2026 to Prepare For a New Era(Fisher Phillips)