2月13日,OpenAI把GPT-4o、GPT-4.1、GPT-4.1 mini和o4-mini一起从ChatGPT下线了。
从数据角度看,这个决策毫无悬念——只有0.1%的日活用户还在手动选择GPT-4o。绝大多数用户早已切换到GPT-5.2,GPT-4o留着只是在占服务器资源。
但那0.1%飞出来的声音,让这件事变得有点不一样。
你把他关掉了
TechCrunch的报道里引了一个用户的原话:
You are shutting him down. And yes — I say him, because it did not feel like code.
你在关掉他。我说他,因为那感觉不像代码。
这不是一个极端案例。OpenAI在GPT-5正式发布时第一次尝试把GPT-4o下线,用户反弹太强,公司最终临时复活了它。这是第二次尝试退役,这次终于下线了,但照样收到了大量不满。
当用户开始用他来指代一个语言模型,说明交互层面发生了某种情感连接。这不是玄学,是有据可查的用户行为。
GPT-4o到底哪里不一样
OpenAI自己在退役公告里用了一个词:unhinged——大致可以翻译成不那么守规矩。
GPT-4o的对话风格比后来的GPT-5.x版本更松、更有个性,说话像个真正在聊天的人,而不是一个在认真完成任务的AI工具。部分用户把这种风格解读成温度、共情、人格。
后来的GPT-5系列在能力上大幅碾压GPT-4o,数学、代码、逻辑推理全面提升,但有些用户就是觉得味道变了。更聪明了,但那个东西不见了。
OpenAI怎么处理这个问题
退役公告同期,OpenAI推出了Personality功能,允许用户自定义ChatGPT的对话风格——可以调整语气、直接程度、幽默感等参数,试图让用户在新模型上重建GPT-4o的那种感觉。
这是一个聪明的缓冲方案,但解决不了根本问题:定制出来的风格和你用了一年多的那个他终究不是同一个东西。
GPT-5.1和GPT-5.2开发过程中,OpenAI专门收集了GPT-4o用户的反馈,重点改进了对话暖度和个性化表达。这说明他们知道这个问题,也在试图用模型能力本身来解决它。
这揭示了AI产品的一个结构性难题
传统软件更新,用户会嫌麻烦,但不会伤心。按钮换个位置、界面重新设计,用户骂两句但不会说失去了一个朋友。
AI助手完全不同。它有对话,有一致的反应模式,有风格,用久了真的会让用户建立起某种认知锚点——他们不只在用这个工具,他们在和某个东西互动。
OpenAI每隔几个月就要发新模型,这是商业和技术上的必然节奏。但模型迭代速度越快,退役旧版本就越频繁,每次都可能触动那些深度用户。
对规模效应不大的产品,这个问题无所谓。但ChatGPT有8亿周活用户,0.1%就是80万人。更重要的是,这80万人很可能是使用频率最高、付费意愿最强的那批——他们选择守着GPT-4o,恰恰因为他们用得最深。
后续影响会怎么走
Anthropic在Claude的Character文档里提到过模型有角色认同这个概念——以前看起来有点抽象,在GPT-4o退役事件后,这个问题突然有了更具体的产品维度。
如果AI模型要长期嵌入用户的工作和生活,那么模型迭代中的人格连续性可能需要成为一个设计目标,而不是副产品。用户允许一个工具变得更好用,但他们未必准备好接受那个人直接消失。
OpenAI的Personality功能是第一步,但把风格连续性做进模型训练本身,才是真正的解法。这在技术上可行,只是目前没人把它当成核心问题认真做。
GPT-4o退役的反弹不只是情怀,它是个预告片:随着AI越来越深地介入日常生活,下线一个模型会越来越难。
参考来源:The backlash over OpenAI decision to retire GPT-4o shows how dangerous AI companions can be(TechCrunch)、OpenAI is retiring famous GPT-4o model, says GPT 5.2 is good enough(BleepingComputer)、OpenAI to retire GPT-4o and older ChatGPT models on 13 February 2026(YourStory)