AI编程工具普及了两年,有一种现象开始浮出水面:有些团队的代码提交量翻倍了,产品交付没有变快,bug却变多了。
TechCrunch最近报道了一个词:Tokenmaxxing。意思是,开发者开始把AI工具的token预算当成一种身份标志——谁的token配额越大,谁就越productive。但数据说的是另一回事。
Token越多,代码删得越快
先看数字:
- GitClear 2026年1月:使用AI工具的开发者代码churn(删改量/新增量)是不用AI的同事的 9.4倍
- Faros AI 2026年3月:分析两年客户数据,高AI采用率下代码churn增加了 861%
- Jellyfish Q1 2026:token预算最大的工程师,吞吐量是普通人的2倍,但成本高达 10倍
这不是说AI工具没用。而是说,那些被计入”生产力提升”的大量代码,很多都活不过几周。
80%接受率背后的真相
工程师平均会接受AI生成代码的80%-90%,这个数字看起来很高,被很多公司当成”AI ROI”的核心指标。
但Waydev的CEO Alex Circei对50多家企业、超过一万名工程师的数据做了追踪分析,发现了一个规律:
初始接受率是80-90%,但几周后再看,真正留下来的代码只有10-30%。
也就是说,工程师按下”接受”,不代表这段代码真的有用。大量AI生成的代码在后续迭代中被悄悄删掉、重写,这些删除动作不会被统计进”AI帮我节省了多少时间”的报告里。
当token预算变成了KPI
Tokenmaxxing这个词的出现,说明一件事:AI工具的采用已经从技术问题变成了组织管理问题。
当工程团队开始把”每月消耗了多少AI token”当成绩效指标,问题就来了。工程师开始主动用AI生成大量代码来展示工作量,而不是认真判断哪些代码真正应该由AI来写。
Atlassian花10亿美元收购了开发者分析平台DX,就是因为看到了这个趋势——企业需要工具来搞清楚AI投资的真实ROI,而不是靠token消耗量自欺欺人。
生产力瓶颈已经转移了
AI编程工具确实有用。McKinsey 2026年2月的研究显示,AI工具把例行编码任务的时间平均压缩了46%。
但压缩的是”写”的时间,不是”改”和”删”的时间。
Jellyfish的数据显示,工程师每周花在审查AI代码上的时间是11.4小时,而花在写新代码上的时间只有9.8小时——这个比例在2024年是反过来的。
代码生成变快了,代码审查变成了新瓶颈。把速度当质量,是Tokenmaxxing最核心的错误。
参考来源:'Tokenmaxxing' is making developers less productive than they think(TechCrunch)