白宫想让AI走FDA那一套:Hassett说每个新模型都要先过审,两周内可能出行政令

特朗普政府要给AI上”FDA”了。

5月6日下午,白宫国家经济委员会主任Kevin Hassett在接受采访时扔了一句话——美国可能很快要出一个行政令,让所有新AI模型在公开发布前都过一道政府审核,标准比照药品上市。

这句话读起来不太像特朗普政府会说的话。一年前白宫的口径还是”AI监管要少不要多、Biden那套AI安全令是负担”。现在风向转了。

Hassett原话

完整引用一下,免得被各种二次转述带偏:

“We’re studying possibly an executive order to give a clear road map to everybody about how this is going to go and how future AIs that also could potentially create vulnerabilities should go through a process so that they’re released to the wild after they’ve been proven safe — just like an FDA drug.”

直译:我们正在研究一份可能的行政令,给所有人一个清晰路线图——未来的AI如果可能引发漏洞,就得经过一个审核流程,证明安全之后再放出去,就像FDA批药一样

“FDA批药一样”这个比喻挺重的。FDA管药品的逻辑是预审制——你不能先卖再说,必须先证明安全和有效,审核没过的药压根不能上市。把这套逻辑搬到AI上意味着什么?意味着你训出一个新模型,不是发布会一开就能上线,得先送给政府评估。

为什么风向变了:一个词,Mythos

直接触发点是Anthropic前段时间发布的Mythos——那个能在两周内挖出OpenBSD憋了27年的旧漏洞、随后被12家科技巨头组成联盟”圈养起来”的网络安全AI模型。

白宫之所以坐不住,是因为Mythos展示了一件事:一个AI模型可以系统性地、自动化地找出关键基础设施里的零日漏洞。这能力放在防御方手里是宝贝,放错位置就是国家安全级别的麻烦。

特朗普政府前几个月本来要直接禁掉Anthropic在政府系统里的使用,后来Anthropic把Mythos的演示版给白宫看了,态度从”立刻停用”转到”可以谈”。现在的”FDA-style审核”路线,就是从那次态度转变延伸出来的。

谁在推这事

行政内部的盘点:

角色 立场
Kevin Hassett(NEC主任) 直接出面表态,倾向较强审核
David Sacks(前AI/加密”czar”) 偏轻监管,但已不在岗位上
Chris Fall(CAISI新主任,前能源部) 接手中AI Standards and Innovation Center,技术派
Collin Burns(前Anthropic员工) 上岗几天后被解雇,内部派系斗争痕迹明显

CAISI值得专门说一下——这是从Biden时代AI Safety Institute改名来的(”Safety”被去掉了)。改完名之后并没有躺平,反而完成了40多次模型评估,包括未发布的模型,刚拿到5500万美元研究预算+1000万美元扩张资金。

5月5日,Microsoft、Google、xAI已经签了协议同意CAISI做发布前评估。OpenAI和Anthropic更早就在名单上了。

也就是说事实层面的”预审”已经在跑了,Hassett说的行政令是要把这套机制法律化、制度化。

这一刀的范围会划多大

Hassett没给具体细节,但有几个公开信号:

  • 他亲口说**”really quite likely”会适用于所有AI公司**
  • 时间表:未来两周内可能签下至少一个行政令
  • 触发审核的标准很可能围绕”国家安全相关漏洞”——也就是说不是所有模型都过审,而是有特定能力的模型(网络攻击、生化、CBRN)必须过

但行政内部本身还在吵。一派想全面审,一派想精准审,还没达成共识。Rumman Chowdhury(前Twitter AI伦理负责人)直接说:”这是特朗普政府的180度大转弯。”

这句话没说错。九个月前白宫还在签行政令撤销Biden时代的AI安全要求,现在准备签新行政令往回推——风向变了,不是往左转或往右转的问题,是Mythos把所有人都吓住了

业界怎么反应

OpenAI、Anthropic、Google官方都还没公开评论这份草案。但从过去几个月的动作看:

  • Anthropic自己就是CAISI最早的合作者,乐见其成——它已经过了门槛,新规则会变成它的护城河
  • OpenAI比较微妙,Sam Altman这两年公开演讲都在主动呼吁监管,但实操上不希望审核太苛刻
  • xAI是反对派——Musk一边骂OpenAI一边自己也不想被审

最有意思的可能是Mistral、DeepSeek、Qwen这些非美国本土的玩家。如果未来美国把”FDA-style审核”绑定在API出口/部署上,开源模型从中国和欧洲流入美国市场的路径会立刻收窄。这就不只是”AI监管”,是”AI主权”了。

这事儿真能落地吗

理性看一下时间线:

短期(1-2周): 行政令可能签,但内容大概率是”启动研究”而非”立即执行”。能签得快,是因为不需要国会。
中期(3-6个月): CAISI体系扩容,把目前的自愿评估变成强制评估。这一步会有阻力,业界会推回。
长期(1年以上): 真正落地”模型上线前必须过审”还需要立法配合。国会两党在AI监管上至今没共识。

最现实的判断是:短期会做出一份”看起来在管”的行政令,但实质性的预审制度2026年内大概率落不了地。FDA这个比喻很响亮,但FDA是花了几十年才有今天这个权威,AI监管想一口吃成胖子,不太现实。

不过有一点可以肯定——Mythos之后,AI公司不能再假装自己只是在做语言模型了。当你的产品能挖出全球关键基础设施里的旧洞,监管就一定会来。

参考来源:Trump administration suddenly embraces AI oversight ideas it once rejected(Fortune);Hassett: White House may review AI models 'like an FDA drug'(The Hill);White House explores executive order to vet AI models before release(Investing.com / Yahoo Finance);White House Prepares Order to Boost AI Security, Hassett Says(Insurance Journal);Microsoft, Google and xAI will let the government test their AI models before launch(CNN Business)