4月13日,月之暗面(Moonshot AI)向所有Kimi Code订阅用户全量推送了K2.6代码预览版。这个版本在闭测了大约一周之后正式铺开,时间点卡在GPT-5.4-Cyber和Anthropic Mythos刚发布后不到两周。
Moonshot没有搞发布会,没有博客长文。一封邮件,然后你的Kimi Code就升级了。
跟K2.5比,K2.6主打三个改进:更深的推理链、更清晰的多步骤Agent计划,还有更可靠的工具调用执行。实际效果体现在:做跨多个文件的大型重构、或者拆解复杂Agent工作流时,出错率下来了,逻辑更连贯了。
价格是真正的杀手锏
跑分发出来之前,定价先把人震了一下。
| 模型 | 输入(每百万token) | 输出(每百万token) |
|---|---|---|
| Kimi K2.6 | $0.60 | $2.50 |
| Claude Sonnet 4.6 | $3.00 | $15.00 |
| GPT-5.4 | $2.50 | $10.00 |
输入便宜5倍,输出便宜6倍。拿个具体数字算:如果一个中小团队每个月处理1亿输入token、1000万输出token,一年就能省下大约4380美元。对于把API调用成本当成真实运营开支的团队来说,这不是小数。
K2.5时期的基准成绩是76.8%(SWE-Bench Verified)和85%(LiveCodeBench)——这在所有开放权重模型里已经属于第一梯队。K2.6的官方跑分还没发布,但闭测的开发者普遍反映,K2.6的输出”有种Opus的味道”——详细的推理链,结构化的思考过程,和Claude的verbose chain-of-thought有几分相似。
Agent Swarm:真的并行了
K2.6这次最实质的技术改动,是Agent Swarm层面的重构。
Kimi的Agent Swarm是它让最多100个子agent并行工作的机制。K2.5时有个老问题:Orchestrator(总调度者)理论上支持并行,但实际执行时经常退化成顺序处理。K2.6针对这个做了专项优化,现在Orchestrator能真正维持并行执行而不会默认退化。
结果是:在可以并行化的任务上,速度最高提升了4.5倍。如果你在跑数据批处理、多步骤测试、并行搜索汇总,感受会比较明显。
前端代码生成也变好看了——不只是代码能跑,布局和视觉逻辑也更说得通了。
开放权重,可以本地跑
K2.6基于万亿参数的MoE架构,保持了Moonshot一贯的开放权重策略。如果你在做数据不出境的本地部署,或者想在自己的推理集群上跑,理论上是支持的。
不过目前全量开放权重版本还没完整发布,主要还是通过API和Kimi Code订阅提供。完整的开放权重预计在2026年5月前后发布。
对需要在私有环境里跑大型代码Agent的团队,这个时间节点值得标注一下。
几个真实存在的短板
现实是:不是所有东西都整利索了。
- CLI滞后了几天:API端和网页端先升到了K2.6,命令行用户等了差不多三天。对很多开发者来说,CLI才是主要入口
- 版本名开始乱了:K2、K2.5、K2.6、K2.6-code-preview、K2.6-instruct……搞不清哪个端点在跑哪个版本,版本pinning变成了运维负担
- 英文文档还在追赶:跟Anthropic和OpenAI相比,Moonshot的英文技术文档质量和更新速度还差一截。国际开发者的体感不好
- API调用频率上限:每5小时300-1200次,对高并发批量任务不够用,需要自己做排队
K3还在路上
K2.6出来了,但关于K3的讨论没停。社区里流传的消息说,K3的目标参数量会进入3-4万亿的量级,对标顶级美国模型。Moonshot官方在3月底确认了K3在开发中,具体特性没透露。
K2.6的释放方式——一封邮件,然后直接推送——说明Moonshot在用比较低调的方式推进迭代。不搞大新闻,先让用户感受到。这和K3”憋大招”的传言倒也不矛盾。
对开发者来说,现在的状态是:你用得起,基准也说得过去,缺点可以接受,就先用着。等K3出来的时候,再重新评估。
参考来源:Kimi Code K2.6: Key Takeaways for Developers(BuildFastWithAI);Kimi K2.6 Code Preview Is Here(kimi-k2.org);Moonshot's Kimi K2.5 is open, 595GB, and built for agent swarms(VentureBeat)