AI发布前先过政府这关:xAI、Google、微软加入CAISI审核,OpenAI和Anthropic早就在名单上了

xAI、Google、微软同时点了头。

5月5日,三家公司确认加入美国政府的”前沿AI模型预审”机制——简单说,就是模型公开发布之前,得先把版本交给商务部下属的CAISI(AI标准与创新中心)做安全评估。

这事不是新东西,但名单从两家变成五家。

CAISI是干什么的

CAISI(Center for AI Standards and Innovation)挂在美国商务部下面,前身可以追溯到Trump政府2025年7月对AI vetting(AI审核)的承诺。

核心任务一句话:在前沿AI模型公开部署前评估它们,识别国家安全风险

到目前为止,CAISI已经完成了40多次前沿模型评估。考的是什么?官方说法是”网络攻击和军事滥用”——直白点,这模型能不能帮人写恶意代码、生物武器配方、攻击关键基础设施。

CAISI主任Chris Fall的原话:”独立、严谨的测量科学,是理解前沿AI及其国家安全影响的基础。”

听起来很学术,但配套机制相当具体:开发商要交的不是带护栏的版本,是把安全护栏拆掉的内部模型——只有这样CAISI才能测试模型的真实能力上限。

名单怎么扩的

时间线是这样:

  • 2024年:OpenAI、Anthropic率先签订自愿协议
  • 2025年7月:Trump政府承诺与科技公司合作AI vetting
  • 2026年5月5日:Microsoft、Google、xAI加入

微软在公告里说会和政府科学家”以探测意外行为的方式”测试模型。这个表达很关键——“意外行为”指的是那些训练时没发现、部署后才暴露出来的能力。

xAI过去对监管态度一直拧巴,Musk一边喊”AI需要监管”,一边在SpaceX招股书里把xAI的合规风险写进去。这次直接加入CAISI,是xAI罕见的服软。

真正的导火索是Mythos

为什么是这个时间点?

Anthropic前阵子发布了一个叫Mythos的网络安全模型——能在两周内挖出OpenBSD憋了27年没人发现的漏洞。后续Anthropic还拉了12家巨头组联盟、给央行行长做了演示、吓得Powell和Bessent紧急召集华尔街开会。

CAISI内部对Mythos这种能力的担心是:模型实力到了能”增强黑客能力”的程度,任何一家AI公司发布前都不该绕过国家级评估

这就是名单扩到5家的真实背景。CAISI不能只盯着OpenAI和Anthropic两家——Google的Gemini、xAI的Grok、微软的Phi系列,都到了能力门槛之上。审核机制不能有空白地带。

五角大楼那边的另一条线

值得对照看的还有另一条线。

CAISI是商务部口的”安全评估”,五角大楼是国防口的”采购合作”。本周早些时候,五角大楼跟8家AI公司签了机密网络部署协议——Anthropic不在名单上,原因是Anthropic对军事使用模型有严格的guardrail(护栏),双方在某些用例上谈不拢。

所以现状是:

  • CAISI审核名单:OpenAI、Anthropic、Microsoft、Google、xAI(5家)
  • 五角大楼合作名单:8家AI公司,排除Anthropic
  • 联邦法院上周还驳回了Anthropic对国防部封禁令的紧急申请

Anthropic在监管这盘棋里走得有点拧巴——CAISI愿意配合,国防部门用不上。OpenAI和Google两边都在。

监管框架正在拼出来

美国联邦层面没有AI法,但FTC、SEC、DOJ、CAISI、五角大楼、白宫executive order这些工具一个一个被启用。州一级,纽约的RAISE Act已经定稿,加州、德州在跟进。

CAISI这次扩名单的意义在于:它把”模型预审”从两家公司的自愿动作,变成了头部AI公司的事实标准。下一步如果白宫真的发布行政命令把它写成强制要求,这套机制就会从”君子协议”变成”准入门槛”。

新模型的发布节奏会因此变慢吗?大概率会。GPT-5.5从内测到上线那种”几周走完”的速度,未来可能要给CAISI留出测试窗口。但对整个AI行业来说,这步可能比看起来更重要——能力跑得这么快,没有人审核才是真正的风险。

参考来源:Microsoft, xAI and Google will share AI models with US govt for security reviews(多家通讯社综合,2026-05-05);Pentagon strikes deals with 8 Big Tech companies after shunning Anthropic(CNN Business,2026-05-01)