Kimi K2.6 Code Preview上线:比Claude Sonnet便宜5倍,Agent Swarm又快了

4月13日,月之暗面(Moonshot AI)向所有Kimi Code订阅用户全量推送了K2.6代码预览版。这个版本在闭测了大约一周之后正式铺开,时间点卡在GPT-5.4-Cyber和Anthropic Mythos刚发布后不到两周。

Moonshot没有搞发布会,没有博客长文。一封邮件,然后你的Kimi Code就升级了。

跟K2.5比,K2.6主打三个改进:更深的推理链、更清晰的多步骤Agent计划,还有更可靠的工具调用执行。实际效果体现在:做跨多个文件的大型重构、或者拆解复杂Agent工作流时,出错率下来了,逻辑更连贯了。

价格是真正的杀手锏

跑分发出来之前,定价先把人震了一下。

模型 输入(每百万token) 输出(每百万token)
Kimi K2.6 $0.60 $2.50
Claude Sonnet 4.6 $3.00 $15.00
GPT-5.4 $2.50 $10.00

输入便宜5倍,输出便宜6倍。拿个具体数字算:如果一个中小团队每个月处理1亿输入token、1000万输出token,一年就能省下大约4380美元。对于把API调用成本当成真实运营开支的团队来说,这不是小数。

K2.5时期的基准成绩是76.8%(SWE-Bench Verified)和85%(LiveCodeBench)——这在所有开放权重模型里已经属于第一梯队。K2.6的官方跑分还没发布,但闭测的开发者普遍反映,K2.6的输出”有种Opus的味道”——详细的推理链,结构化的思考过程,和Claude的verbose chain-of-thought有几分相似。

Agent Swarm:真的并行了

K2.6这次最实质的技术改动,是Agent Swarm层面的重构。

Kimi的Agent Swarm是它让最多100个子agent并行工作的机制。K2.5时有个老问题:Orchestrator(总调度者)理论上支持并行,但实际执行时经常退化成顺序处理。K2.6针对这个做了专项优化,现在Orchestrator能真正维持并行执行而不会默认退化。

结果是:在可以并行化的任务上,速度最高提升了4.5倍。如果你在跑数据批处理、多步骤测试、并行搜索汇总,感受会比较明显。

前端代码生成也变好看了——不只是代码能跑,布局和视觉逻辑也更说得通了。

开放权重,可以本地跑

K2.6基于万亿参数的MoE架构,保持了Moonshot一贯的开放权重策略。如果你在做数据不出境的本地部署,或者想在自己的推理集群上跑,理论上是支持的。

不过目前全量开放权重版本还没完整发布,主要还是通过API和Kimi Code订阅提供。完整的开放权重预计在2026年5月前后发布。

对需要在私有环境里跑大型代码Agent的团队,这个时间节点值得标注一下。

几个真实存在的短板

现实是:不是所有东西都整利索了。

  • CLI滞后了几天:API端和网页端先升到了K2.6,命令行用户等了差不多三天。对很多开发者来说,CLI才是主要入口
  • 版本名开始乱了:K2、K2.5、K2.6、K2.6-code-preview、K2.6-instruct……搞不清哪个端点在跑哪个版本,版本pinning变成了运维负担
  • 英文文档还在追赶:跟Anthropic和OpenAI相比,Moonshot的英文技术文档质量和更新速度还差一截。国际开发者的体感不好
  • API调用频率上限:每5小时300-1200次,对高并发批量任务不够用,需要自己做排队

K3还在路上

K2.6出来了,但关于K3的讨论没停。社区里流传的消息说,K3的目标参数量会进入3-4万亿的量级,对标顶级美国模型。Moonshot官方在3月底确认了K3在开发中,具体特性没透露。

K2.6的释放方式——一封邮件,然后直接推送——说明Moonshot在用比较低调的方式推进迭代。不搞大新闻,先让用户感受到。这和K3”憋大招”的传言倒也不矛盾。

对开发者来说,现在的状态是:你用得起,基准也说得过去,缺点可以接受,就先用着。等K3出来的时候,再重新评估。

参考来源:Kimi Code K2.6: Key Takeaways for Developers(BuildFastWithAI);Kimi K2.6 Code Preview Is Here(kimi-k2.org);Moonshot's Kimi K2.5 is open, 595GB, and built for agent swarms(VentureBeat)