上周发生的一件事,很多科技媒体关注了,但可能没有完全讲清楚里面的层次。
Trump政府把Anthropic列为供应链风险——实质上是把这家公司踢出了美国军事合同体系。
原因?Anthropic拒绝签一份要求他们移除安全护栏的合同,那份合同的用途包括国内大规模监控和完全自主武器系统。
Anthropic说了什么
Anthropic的立场很直接:我们有AI系统的安全使用条款,用于这两个场景不在允许范围内,所以这份合同我们不签。
联邦法院随后介入,暂时阻止了这个供应链风险的认定——法官认为这个政策决定存在问题。
但暂时阻止不等于解决,这个法律博弈还在继续。
Newsom的反击
就在这个背景下,加州州长Newsom在3月30日签署了行政令N-5-26。
这道行政令表面上是关于加州政府采购AI产品的标准,但实际上是Newsom在用采购权力作为政策工具,和联邦政府的AI政策方向对着干。
具体内容:
- AI产品供应商要向加州认证,证明自己的系统不会用于非法内容传播、歧视性偏见、侵犯公民权利
- 要求加州数字技术部出台AI生成内容水印指南——这是全美首例
- 要求州政府机构给员工提供经审查的生成AI工具
加州是美国最大的AI产品和服务市场。Newsom说,加州的采购标准可以实际上变成全行业的基准——因为想做政府业务就必须合规。
这场博弈的背景
这不是一个孤立事件。
2025年12月,Trump签了行政令,要求联邦检察长成立专门工作组,挑战各州的AI相关法律,目标是建立一套最低限制的全国统一标准。
2026年3月20日,白宫发布《国家AI政策框架》,进一步推动国会立法,预先阻止各州制定被认为阻碍国家竞争力的AI法规。
Newsom的反应是:行,你联邦管不了,我用采购权来管。
法律专家预测这件事可能最终会到最高法院,成为美国科技史上影响最深的法律案件之一。
这对AI行业意味着什么
短期看:Anthropic目前被排除在美国军事AI采购之外,但因为法院临时裁定,情况还在变化中。
中期看:联邦和加州的AI监管路线分歧越来越大。企业要应对的不是一套规则,而是两套——而且这两套方向完全相反。
长期看:如果最高法院最终判定联邦可以预先阻止州AI法律,加州的监管实验就会受到严重限制;如果州权被保留,加州标准就真的可能成为全美事实标准。
这一切都在2026年内。
参考来源:As Trump rolls back protections, Governor Newsom signs first-of-its-kind executive order to strengthen AI protections(California Governor's Office);California, not Trump, will decide how risky its AI startups are, Newsom says(CalMatters);Federal Preemption: President Trump Signs Landmark AI Executive Order to Dismantle State Regulations(FinancialContent)