5月7日,OpenAI 推出了一个新版本的 GPT-5.5,型号叫 GPT-5.5-Cyber。
和往常发布会动辄全球公测不一样,这次的口径是:只给经过审核的网络安全团队,从6月1日起还必须用 phishing-resistant 硬件认证。
时间点选得很妙——离 Anthropic 把 Claude Mythos 锁死、只发给40家企业的事情还不到一个月。
它到底比标准版多了什么
OpenAI 自己的话是:
The initial preview of cyber-permissive models like GPT-5.5-Cyber is not intended to significantly increase cyber capability beyond GPT-5.5 – it’s primarily trained to be more permissive on security-related tasks.
翻译一下:模型还是那个模型,但**”会不会回答你”的判定标准放宽了**。
具体放宽了哪些场景?
- 红队演练自动化
- 漏洞的概念验证(PoC)编写
- 真实环境的攻击模拟与压力测试
- 给已发现的高危漏洞做有效性验证
哪些没有放宽——
- 凭证窃取相关请求
- 可直接部署的恶意软件
- 实际能伤人的攻击工具开发
换句话说,OpenAI 划了一条线:你可以让它帮你”练习被攻击”,但不能让它”主动攻击别人”。
三档分级,跟做军火出口似的
GPT-5.5-Cyber 不是独立模型,它是 Trusted Access for Cyber 这个项目的第三档:
| 等级 | 模型 | 用户群 | 限制 |
|---|---|---|---|
| 公开 | GPT-5.5 | 所有人 | 默认安全护栏全开 |
| 中级 | GPT-5.5 加宽容版 | 备案的安全工作流 | 部分护栏放宽 |
| 最高 | GPT-5.5-Cyber | 通过审核的红队/渗透团队 | 大部分护栏放宽 |
每档申请都要提交身份证明和用途文档,账户实名挂钩、所有调用记录日志、随时可以被撤销权限。6月1日起,最高档必须使用 phishing-resistant 认证(FIDO2 或物理安全密钥那一套)。
这套设计逻辑跟出口管制几乎一模一样——能力越高,监管层级越严。
跟 Claude Mythos 对照着看
英国 AI 安全研究所(UK AISI)给两个模型上了同一套题:32步模拟企业级攻击链。
- GPT-5.5:10次里成功完成2次
- Mythos Preview:10次里成功完成3次
两家都在3成上下徘徊,但都已经不能再公开发布。再加一个细节:GPT-5.5 在一道逆向工程题上独立解出来只用了10分钟。
Anthropic 那边的处理是把 Mythos Preview 完全锁死——12家联盟伙伴 + 40家精选企业,外人想用都没渠道。自家发的安全报告里写着:用 Mythos 挖出了 OpenBSD 憋了27年没人发现的洞、Firefox 一次性271个漏洞。
OpenAI 这边玩法不一样:门稍微开大一点,但锁加得更狠。Mythos 是闭门做研究,GPT-5.5-Cyber 是给更广义的防御者用,靠账户管控来兜底。
两条路谁对?短期看不出来。
一个被忽略的细节:商业逻辑
把 Mythos 锁起来,意味着 Anthropic 把商业价值压在了”自己用模型挖洞、再卖给企业修”这个闭环上。OpenAI 把模型给出去,意味着它走的是SaaS 卖给安全行业那条路。
第一批使用 GPT-5.5-Cyber 的,大概率是头部安全公司——他们的渗透测试需求够大,付费意愿够强,而且每一次调用都会反馈数据回 OpenAI 用来训练下一代 cyber 模型。
也就是说,OpenAI 这一招既是和 Anthropic 抢防御者市场,也是在悄悄给自家攒训练数据。
至于6月1日强制硬件密钥认证那条——这是给监管机构看的。CAISI 提前审查协议刚落地不久,OpenAI 想在更严的监管真正落锤之前,先把自家的规矩立起来。
参考来源:OpenAI Opens GPT-5.5-Cyber to Vetted Security Researchers(WinBuzzer);OpenAI tunes GPT-5.5-Cyber for more permissive security workflows(Help Net Security);OpenAI rolls out new GPT-5.5-Cyber to vetted cybersecurity teams(CNBC)