代码越写越多,却越写越烂:Tokenmaxxing正在偷走你的开发效率

AI编程工具普及了两年,有一种现象开始浮出水面:有些团队的代码提交量翻倍了,产品交付没有变快,bug却变多了。

TechCrunch最近报道了一个词:Tokenmaxxing。意思是,开发者开始把AI工具的token预算当成一种身份标志——谁的token配额越大,谁就越productive。但数据说的是另一回事。

Token越多,代码删得越快

先看数字:

  • GitClear 2026年1月:使用AI工具的开发者代码churn(删改量/新增量)是不用AI的同事的 9.4倍
  • Faros AI 2026年3月:分析两年客户数据,高AI采用率下代码churn增加了 861%
  • Jellyfish Q1 2026:token预算最大的工程师,吞吐量是普通人的2倍,但成本高达 10倍

这不是说AI工具没用。而是说,那些被计入”生产力提升”的大量代码,很多都活不过几周。

80%接受率背后的真相

工程师平均会接受AI生成代码的80%-90%,这个数字看起来很高,被很多公司当成”AI ROI”的核心指标。

但Waydev的CEO Alex Circei对50多家企业、超过一万名工程师的数据做了追踪分析,发现了一个规律:

初始接受率是80-90%,但几周后再看,真正留下来的代码只有10-30%。

也就是说,工程师按下”接受”,不代表这段代码真的有用。大量AI生成的代码在后续迭代中被悄悄删掉、重写,这些删除动作不会被统计进”AI帮我节省了多少时间”的报告里。

当token预算变成了KPI

Tokenmaxxing这个词的出现,说明一件事:AI工具的采用已经从技术问题变成了组织管理问题。

当工程团队开始把”每月消耗了多少AI token”当成绩效指标,问题就来了。工程师开始主动用AI生成大量代码来展示工作量,而不是认真判断哪些代码真正应该由AI来写。

Atlassian花10亿美元收购了开发者分析平台DX,就是因为看到了这个趋势——企业需要工具来搞清楚AI投资的真实ROI,而不是靠token消耗量自欺欺人。

生产力瓶颈已经转移了

AI编程工具确实有用。McKinsey 2026年2月的研究显示,AI工具把例行编码任务的时间平均压缩了46%。

但压缩的是”写”的时间,不是”改”和”删”的时间。

Jellyfish的数据显示,工程师每周花在审查AI代码上的时间是11.4小时,而花在写新代码上的时间只有9.8小时——这个比例在2024年是反过来的。

代码生成变快了,代码审查变成了新瓶颈。把速度当质量,是Tokenmaxxing最核心的错误。

参考来源:'Tokenmaxxing' is making developers less productive than they think(TechCrunch)