4月初的AI圈最炸裂的新闻,不是某家又发了新模型,而是OpenAI、Anthropic和Google这三家平时抢生意的死对头,突然宣布要一起对付中国AI公司。
具体来说,三家公司通过Frontier Model Forum(2023年由这几家和微软联合成立的论坛)开始共享情报,目标是打击”蒸馏攻击”——也就是竞争对手用你的大模型产出来训练自己的小模型这种行为。
被点名的中国公司有三家:DeepSeek、Moonshot AI(Kimi的母公司)、MiniMax。
什么叫”蒸馏攻击”?
方法说起来不复杂:往目标模型里塞一大堆精心设计的提示词,收集返回的结果,拿去训练自己的模型。
你不需要知道对方的模型架构,不需要拿到权重,就能让自己的模型学到对方大量的推理方式和知识结构。OpenAI早在DeepSeek R1出来的时候就怀疑过这事,Sam Altman当时公开说DeepSeek”不当地蒸馏了GPT模型”。
现在Anthropic给出了具体数字:这三家中国公司通过大约 24,000个虚假账号 与Claude进行了超过 1600万次 交互。
这不是正常用户行为。1600万次是工业级的、系统性的数据挖掘,而且是通过大量伪造账号来规避平台使用条款检测的。
三家敌人为什么突然变盟友?
说这三家是竞争对手都是轻描淡写——OpenAI和Anthropic在争同一批企业合同,Google同时跟两家正面交锋。
但当问题的规模大到单靠一家公司的防御措施根本扛不住,这种竞争暂时让位了。Frontier Model Forum的情报共享机制意味着:一家发现了新的蒸馏攻击模式,其他两家可以同步更新防御策略。
Anthropic在这次合作里做了什么?推出了”Project Glasswing”——把高能力的Claude Mythos模型访问权限限制在特定合作伙伴范围内,附带更严格的安全检测机制,并承诺了1亿美元的使用积分给AWS、Google、微软等防御安全合作伙伴。
中国公司偷的到底是什么?
从Anthropic的指控来看,蒸馏涉及的领域包括:计算机视觉、代码生成、复杂推理等多个核心能力方向。
这三家公司的产品路线对比一下就能理解:
| 公司 | 主要产品 | 与被指控能力的关联 |
|---|---|---|
| DeepSeek | R系列推理模型 | 复杂推理能力 |
| Moonshot AI | Kimi长上下文模型 | 文档理解、代码能力 |
| MiniMax | 视频生成、多模态 | 视觉理解 |
每家的蒸馏目标可能都有侧重,但共同点是:不用花上亿美元训练代价就能获得接近SOTA的能力。
这件事对开源AI意味着什么?
往大了看,这个联盟的成立某种程度上标志着AI行业进入了”知识产权保护阶段”。
之前大家都在讲AI开放、开源、模型共享。现在Anthropic直接限制了自己最强模型的访问权限,OpenAI也在对使用条款执行上加码。
如果防蒸馏成为行业标准动作,那些依赖调用API来优化自己模型的研究者和小公司也会受到波及——怎么区分”正常的API调用”和”系统性的蒸馏采集”,本身就是个技术和政策上都很难解决的问题。
目前,被点名的三家中国公司都没有公开回应这些指控。
参考来源:OpenAI, Anthropic, Google Unite to Combat Model Copying in China(Bloomberg);OpenAI, Google, Anthropic Unite Against AI Model Theft(Built In);OpenAI, Anthropic and Google Unite Against China AI Distillation(resultsense.com)