Anthropic只给40家公司、OpenAI开放给上千团队:AI网络安全工具的两种分发逻辑撞上了

4月14日,OpenAI 宣布了一件事:扩大 GPT-5.4-Cyber 的访问权限,开放给”数千名个人和数百个安全团队”

时间点很有意思——就在一周前,Anthropic 刚刚宣布了 Project Glasswing,把 Claude Mythos(内部最强的网络安全模型)的访问权限严格限制在约 40家顶级企业

两家公司,同一个问题,给出了截然相反的答案。

GPT-5.4-Cyber 能做什么

GPT-5.4-Cyber 是 GPT-5.4 的网络安全专项版本,专门为安全场景微调过。OpenAI 的介绍里,主要能力包括:

  • 二进制逆向工程:分析编译后的软件,识别恶意代码、漏洞和安全薄弱点,不需要访问源码
  • 漏洞研究与分析:辅助安全研究员做漏洞挖掘,降低专业门槛
  • 高级防御工作流:结合安全团队实际作战流程设计的任务链

限制也是真实的。你得通过 多层 KYC(了解你的客户)和身份验证才能进入。OpenAI 把权限分成了不同档位,越高级的访问需要越严格的机构背景审查。

另一边是 Anthropic 的做法

上周 Anthropic 宣布 Project Glasswing,思路完全不同。

Claude Mythos 在网络安全领域的能力据称可以挖掘出存在27年的老漏洞,Anthropic 内部评估认为它”太危险”,不适合大规模商业发布。

Glasswing 的做法是:选定约 40 家顶级科技公司,在严格监控下给它们受限访问权限。你不在名单里,基本没戏。

两种哲学的根本分歧

这两种做法背后是非常不同的价值判断。

OpenAI 的逻辑,用他们自己的话说:

我们不认为,由我们来集中决定谁有权防御自己,是合适或可行的。

翻译过来就是:防御者需要和攻击者同等级别的工具。如果只把强工具给少数精英机构,全球数以万计的企业安全团队缺乏同等能力,整体安全态势反而变差。

他们的解决方案是:宽准入 + 强验证。只要通过身份核查、证明自己是合法的防御方,工具就给用。

Anthropic 的逻辑相反:Mythos 级别的模型太强了,一旦扩散,攻击方拿到的红利可能超过防御方。宁可覆盖面小,也要确保没有流向错误的人。

两家公司都承认这些工具可以双向使用。分歧在于:谁来做守门人,以及门开多大

这个分歧其实很重要

想想现实场景:一家中等规模的企业安全团队,预算有限,面对复杂的供应链攻击。他们需要强力的漏洞分析工具,但可能永远进不了 Anthropic 的40家名单。

OpenAI 的方案让这类团队有机会用上工具。Anthropic 的方案则在问:万一通过了 KYC 的人是攻击者,怎么办?

这不是一个小的技术细节,它代表了 AI 安全工具走向成熟时必须回答的根本问题。

OpenAI 和 Anthropic 赌的是不同的概率分布:前者认为防御者更多,验证体系够用;后者认为风险太大,宁可少覆盖。

数字说话

从受益人数量来看,两边的差距非常明显:

方案 覆盖范围 验证方式 模型
OpenAI 可信访问 数千个人和团队 KYC 分级验证 GPT-5.4-Cyber
Anthropic Glasswing 约40家企业 邀请制 + 监控 Claude Mythos

短期来看,OpenAI 的做法会赢得更多安全从业者的好感——毕竟,被排在40名之外的团队比排在内的多得多。

下一步的考验

OpenAI 说 GPT-5.4-Cyber 会持续迭代,随着真实使用数据积累,功能会不断调整。

这轮扩张后,真正的考验是:KYC 体系能不能挡住滥用。一旦出现通过了验证却拿去搞攻击的案例,”宽开放”策略会面临很大压力。

Anthropic 那边可能在等着看。

两条路谁对,可能要等真实的安全事件来做最终的裁判。

参考来源:OpenAI expands Trusted Access for Cyber to thousands for cybersecurity(CyberScoop);OpenAI rolls out tiered access to advanced AI cyber models(Axios);Trusted access for the next era of cyber defense(OpenAI Blog)