4月14日,OpenAI 宣布了一件事:扩大 GPT-5.4-Cyber 的访问权限,开放给”数千名个人和数百个安全团队”。
时间点很有意思——就在一周前,Anthropic 刚刚宣布了 Project Glasswing,把 Claude Mythos(内部最强的网络安全模型)的访问权限严格限制在约 40家顶级企业。
两家公司,同一个问题,给出了截然相反的答案。
GPT-5.4-Cyber 能做什么
GPT-5.4-Cyber 是 GPT-5.4 的网络安全专项版本,专门为安全场景微调过。OpenAI 的介绍里,主要能力包括:
- 二进制逆向工程:分析编译后的软件,识别恶意代码、漏洞和安全薄弱点,不需要访问源码
- 漏洞研究与分析:辅助安全研究员做漏洞挖掘,降低专业门槛
- 高级防御工作流:结合安全团队实际作战流程设计的任务链
限制也是真实的。你得通过 多层 KYC(了解你的客户)和身份验证才能进入。OpenAI 把权限分成了不同档位,越高级的访问需要越严格的机构背景审查。
另一边是 Anthropic 的做法
上周 Anthropic 宣布 Project Glasswing,思路完全不同。
Claude Mythos 在网络安全领域的能力据称可以挖掘出存在27年的老漏洞,Anthropic 内部评估认为它”太危险”,不适合大规模商业发布。
Glasswing 的做法是:选定约 40 家顶级科技公司,在严格监控下给它们受限访问权限。你不在名单里,基本没戏。
两种哲学的根本分歧
这两种做法背后是非常不同的价值判断。
OpenAI 的逻辑,用他们自己的话说:
我们不认为,由我们来集中决定谁有权防御自己,是合适或可行的。
翻译过来就是:防御者需要和攻击者同等级别的工具。如果只把强工具给少数精英机构,全球数以万计的企业安全团队缺乏同等能力,整体安全态势反而变差。
他们的解决方案是:宽准入 + 强验证。只要通过身份核查、证明自己是合法的防御方,工具就给用。
Anthropic 的逻辑相反:Mythos 级别的模型太强了,一旦扩散,攻击方拿到的红利可能超过防御方。宁可覆盖面小,也要确保没有流向错误的人。
两家公司都承认这些工具可以双向使用。分歧在于:谁来做守门人,以及门开多大。
这个分歧其实很重要
想想现实场景:一家中等规模的企业安全团队,预算有限,面对复杂的供应链攻击。他们需要强力的漏洞分析工具,但可能永远进不了 Anthropic 的40家名单。
OpenAI 的方案让这类团队有机会用上工具。Anthropic 的方案则在问:万一通过了 KYC 的人是攻击者,怎么办?
这不是一个小的技术细节,它代表了 AI 安全工具走向成熟时必须回答的根本问题。
OpenAI 和 Anthropic 赌的是不同的概率分布:前者认为防御者更多,验证体系够用;后者认为风险太大,宁可少覆盖。
数字说话
从受益人数量来看,两边的差距非常明显:
| 方案 | 覆盖范围 | 验证方式 | 模型 |
|---|---|---|---|
| OpenAI 可信访问 | 数千个人和团队 | KYC 分级验证 | GPT-5.4-Cyber |
| Anthropic Glasswing | 约40家企业 | 邀请制 + 监控 | Claude Mythos |
短期来看,OpenAI 的做法会赢得更多安全从业者的好感——毕竟,被排在40名之外的团队比排在内的多得多。
下一步的考验
OpenAI 说 GPT-5.4-Cyber 会持续迭代,随着真实使用数据积累,功能会不断调整。
这轮扩张后,真正的考验是:KYC 体系能不能挡住滥用。一旦出现通过了验证却拿去搞攻击的案例,”宽开放”策略会面临很大压力。
Anthropic 那边可能在等着看。
两条路谁对,可能要等真实的安全事件来做最终的裁判。
参考来源:OpenAI expands Trusted Access for Cyber to thousands for cybersecurity(CyberScoop);OpenAI rolls out tiered access to advanced AI cyber models(Axios);Trusted access for the next era of cyber defense(OpenAI Blog)