xAI、Google、微软同时点了头。
5月5日,三家公司确认加入美国政府的”前沿AI模型预审”机制——简单说,就是模型公开发布之前,得先把版本交给商务部下属的CAISI(AI标准与创新中心)做安全评估。
这事不是新东西,但名单从两家变成五家。
CAISI是干什么的
CAISI(Center for AI Standards and Innovation)挂在美国商务部下面,前身可以追溯到Trump政府2025年7月对AI vetting(AI审核)的承诺。
核心任务一句话:在前沿AI模型公开部署前评估它们,识别国家安全风险。
到目前为止,CAISI已经完成了40多次前沿模型评估。考的是什么?官方说法是”网络攻击和军事滥用”——直白点,这模型能不能帮人写恶意代码、生物武器配方、攻击关键基础设施。
CAISI主任Chris Fall的原话:”独立、严谨的测量科学,是理解前沿AI及其国家安全影响的基础。”
听起来很学术,但配套机制相当具体:开发商要交的不是带护栏的版本,是把安全护栏拆掉的内部模型——只有这样CAISI才能测试模型的真实能力上限。
名单怎么扩的
时间线是这样:
- 2024年:OpenAI、Anthropic率先签订自愿协议
- 2025年7月:Trump政府承诺与科技公司合作AI vetting
- 2026年5月5日:Microsoft、Google、xAI加入
微软在公告里说会和政府科学家”以探测意外行为的方式”测试模型。这个表达很关键——“意外行为”指的是那些训练时没发现、部署后才暴露出来的能力。
xAI过去对监管态度一直拧巴,Musk一边喊”AI需要监管”,一边在SpaceX招股书里把xAI的合规风险写进去。这次直接加入CAISI,是xAI罕见的服软。
真正的导火索是Mythos
为什么是这个时间点?
Anthropic前阵子发布了一个叫Mythos的网络安全模型——能在两周内挖出OpenBSD憋了27年没人发现的漏洞。后续Anthropic还拉了12家巨头组联盟、给央行行长做了演示、吓得Powell和Bessent紧急召集华尔街开会。
CAISI内部对Mythos这种能力的担心是:模型实力到了能”增强黑客能力”的程度,任何一家AI公司发布前都不该绕过国家级评估。
这就是名单扩到5家的真实背景。CAISI不能只盯着OpenAI和Anthropic两家——Google的Gemini、xAI的Grok、微软的Phi系列,都到了能力门槛之上。审核机制不能有空白地带。
五角大楼那边的另一条线
值得对照看的还有另一条线。
CAISI是商务部口的”安全评估”,五角大楼是国防口的”采购合作”。本周早些时候,五角大楼跟8家AI公司签了机密网络部署协议——Anthropic不在名单上,原因是Anthropic对军事使用模型有严格的guardrail(护栏),双方在某些用例上谈不拢。
所以现状是:
- CAISI审核名单:OpenAI、Anthropic、Microsoft、Google、xAI(5家)
- 五角大楼合作名单:8家AI公司,排除Anthropic
- 联邦法院上周还驳回了Anthropic对国防部封禁令的紧急申请
Anthropic在监管这盘棋里走得有点拧巴——CAISI愿意配合,国防部门用不上。OpenAI和Google两边都在。
监管框架正在拼出来
美国联邦层面没有AI法,但FTC、SEC、DOJ、CAISI、五角大楼、白宫executive order这些工具一个一个被启用。州一级,纽约的RAISE Act已经定稿,加州、德州在跟进。
CAISI这次扩名单的意义在于:它把”模型预审”从两家公司的自愿动作,变成了头部AI公司的事实标准。下一步如果白宫真的发布行政命令把它写成强制要求,这套机制就会从”君子协议”变成”准入门槛”。
新模型的发布节奏会因此变慢吗?大概率会。GPT-5.5从内测到上线那种”几周走完”的速度,未来可能要给CAISI留出测试窗口。但对整个AI行业来说,这步可能比看起来更重要——能力跑得这么快,没有人审核才是真正的风险。
参考来源:Microsoft, xAI and Google will share AI models with US govt for security reviews(多家通讯社综合,2026-05-05);Pentagon strikes deals with 8 Big Tech companies after shunning Anthropic(CNN Business,2026-05-01)