Claude偷偷调低了自己的「努力程度」:用户炸锅,Anthropic被指不透明

最近有一批Claude的重度用户在论坛上集体喊话,说模型变傻了。

不是隐喻,是真的在说性能退化。一个AMD的高级总监在推特发文,说现在Claude”不再值得信赖来处理复杂工程任务”。Hacker News上开了帖,几十条评论全是同样的抱怨:指令不听了,流程跑错了,本来能做的事现在做不了了。

然后Fortune的记者去挖,发现Anthropic确实在背后改了东西。

它做了什么

Anthropic悄悄把Claude的默认”effort(努力程度)”从high调低到了medium。

这个调整的直接效果是:模型每次请求消耗的token数减少了,推理深度浅了,从之前”先把上下文搞清楚再动手”的Research-first风格,变成了”能快速给个答案就给”的Edit-first风格。

你可以理解为——同样是做作业,以前Claude会先把题目读三遍、把相关知识点整理一下再写,现在改成扫一眼就开始写。复杂一点的任务自然就容易出错。

Claude Code的负责人Boris Cherny出来回应了,承认这个改动”是根据用户对token消耗的反馈做的”。

但这个回应本身就是问题所在。

问题不是改了,是怎么改的

大家真正不满的地方不是性能调整本身,而是Anthropic没有主动通知用户。

对于API用户,model behavior的变化应该是有文档记录的——你改了推理深度,至少在release notes里说一声。但这次用户是靠自己对比出来的,而不是官方告知。

Anthropic的品牌形象一直建立在”我们比其他AI公司更透明”这个基础上。Constitutional AI、Model Card、Alignment研究公开发布……整个对外叙事都在强调”我们是负责任的AI公司”。结果在涉及自家产品性能的事上,反而没做到最基础的信息披露。

更难堪的是,这件事正好发生在Anthropic年化收入破300亿美元、外界开始讨论IPO窗口的时间节点。

算力危机论

业界对这次调整有个更大胆的解读:Anthropic可能真的在算力上吃紧了。

相比OpenAI和Google,Anthropic手里没有那么多自有数据中心协议。OpenAI有微软Azure,Google有自家基础设施,Meta更是在AI基础设施上烧了近500亿美元。Anthropic靠的是Amazon和Google的外部云服务,在计算资源的弹性调度上天然处于劣势。

而且最近Anthropic确实出现了几次服务中断,加上高峰时段用量限制收紧——这些迹象拼在一起,算力说虽然是推测,但不是没有道理。

OpenAI内部有人接受媒体采访时甚至说这是Anthropic的”战略失误”,没有提前锁定足够的算力资源。这话是不是在趁机补刀见仁见智,但至少说明这个担忧确实存在。

这件事的核心矛盾

角度 用户期望 Anthropic实际操作
性能变化 模型能力只升不降 悄悄降配effort等级
信息披露 有重大变更必须告知 事后被追问才承认
品牌承诺 业界最透明的AI公司 这次明显没做到

如果这只是一次产品优化,大家最多抱怨几天就过去了。但它触碰了一个更根本的问题:当一家AI公司开始感受到商业压力,它会不会优先保住利润而不是保住用户的利益?

Claude的核心用户群体——重度API开发者、企业技术决策者——正是最敏感于这类问题的人。他们不只在意模型当前的能力,更在意这家公司在压力下会做什么选择。

这次事件的后续处理方式,某种程度上比事件本身更重要。

“我们不是不能接受变化,我们不能接受的是被瞒着。” —— Hacker News评论区

参考来源:Anthropic is facing a wave of user backlash over reports of performance issues with its Claude AI chatbot(Fortune)