OpenAI写了份五条原则的新文件,每一条都在为它最近的争议买单

4月26日周日,OpenAI发了篇叫《Our principles》的文件,列了五条原则:民主化、赋权、普惠繁荣、韧性、适应性。

这是OpenAI自2018年Charter以来最高规格的政策文件。Sam Altman在X上转发的版本读起来挺像那么回事,但你把这五条原则一条一条对着OpenAI最近半年干的事看,会发现一个很有意思的现象:这份文件不是在给未来定方向,是在给过去半年的争议决策提供合法性。

第一条:民主化

原文说的是”AI access for everyone”加上”democratic processes”。但The Decoder的解读一针见血——这条原则的潜台词是在内涵Anthropic。

Anthropic前段时间因为不肯把Claude无限制开放给五角大楼某些部门吃了不少官司。OpenAI这一条原则直接把”AI访问应该普及”上升到价值观,言下之意:那些设条件的、卡用户的,是反民主的。

第二条:赋权

听起来很正面:相信用户、给用户广泛自主权。但接的下半句很关键——“在伤害不确定的地方保留谨慎”。

什么意思?意味着OpenAI保留判断权:哪些东西算”伤害不确定”,由它说了算。这不是去中心化,是把判断权留在公司手里,但用”用户自由”的名义包装。

第三条:普惠繁荣(争议最大的一条)

Altman自己都承认这一条”看起来有点怪”——OpenAI正在全球疯狂买算力、建数据中心、刚拿了1220亿美元的天量融资。这些动作在外界看来明显不像”普惠”,更像”垄断的前奏”。

所以这条原则的功能是:给基础设施军备竞赛提供叙事。逻辑链是这样:要让所有人享受AI红利→所以AI推理成本必须暴跌→所以必须建大量算力→所以现在烧的几百亿是为了未来的普惠。

挺巧妙,但有个明显漏洞。Decoder的批评一针见血——Altman把权力分布讲成了二选一:要么集中在几家公司手里,要么分散到所有用户。完全跳过了”在多家相互竞争的供应商之间分散”这种可能性。

这种二分法让OpenAI可以一边维持自己作为中心化提供商的地位,一边声称在做”去中心化”。

第四条:韧性

提到的具体场景包括”生物武器和网络攻击防御”——巧的是这两个领域刚好对应了OpenAI最近的几个争议合同。Pentagon contract刚被加州的frontier AI安全法案盯上。这条原则一下就把那些政府合作合理化了:不是为了挣钱,是为了”集体韧性”。

第五条:适应性

这一条最坦诚也最让人警觉。Altman明确说:原则之间会冲突(比如赋权 vs 韧性),公司保留随时调整的权利

翻译一下就是:以上四条都不是死的,未来商业利益跟原则打架时,OpenAI可以重新定义。

一句让人印象深刻的话

Altman原话有一句挺重的:

“我们应当受到与我们正在做的事情的分量相称的、巨大的审视。”

听起来很谦卑,但搭配”适应性”这条原则,它的实际功能是:预先承认自己会被批评,然后保留修改路线的权利。

Hacker News上的反应代表了一种典型态度

社区里有不少人指出:2018年的Charter当时也写得很漂亮,里面有句关键承诺——“如果一个有价值观的、安全意识强的项目接近通用AI,OpenAI承诺停止竞争并提供协助。”

那条承诺现在还在Charter里,但已经七年没人提了。

新的五条原则会不会步它后尘?看Altman那句”商业决策可能要求重新校准”,答案大概率是会的。

这事真正值得看的地方

不是这五条原则本身有多深刻,而是OpenAI开始主动给自己做合法性叙事工程。一个公司如果觉得自己只需要做产品,是不会写这种文件的。这份原则更像是公司从”科技公司”自我定位转向”准公共基础设施提供者”的标志。

下一步看什么?看美国联邦AI立法和加州frontier法案的最终版本里,OpenAI能从这五条原则里拿到多少政策让步。这才是这份文件真正要打的仗。

参考来源:Our principles(OpenAI);OpenAI Posts Five Principles for AGI, Updates 2018 Charter(Implicator.ai);Sam Altman outlines five principles that double as justification for OpenAI's business decisions(The Decoder)