4月20日,Alibaba发布了Qwen系列有史以来性能最强的模型——Qwen3.6-Max-Preview。
说悄悄,是因为这次没有大张旗鼓的开源庆典,没有Apache协议公告,也没有欢迎下载、商业免费的旗帜。Qwen3.6-Max只在Qwen Studio和阿里云Model Studio API上提供访问,权重不对外开放。
这是阿里AI策略的一个转折点,值得认真看。
跑分说话:6项第一,排名第二
先看成绩。Qwen3.6-Max在以下6项主流基准测试中拿到第一名:
| 测试 | 考察内容 |
|---|---|
| SWE-bench Pro | 真实世界软件工程任务 |
| Terminal-Bench 2.0 | 命令行执行能力 |
| SkillsBench | 通用问题解决 |
| QwenClawBench | 工具调用 |
| QwenWebBench | 网页交互 |
| SciCode | 科学编程 |
Artificial Analysis独立评测后,将它列为综合表现第二名——仅次于Meta的Muse Spark,远高于同价位其他推理模型的中位数。
对比上一代Qwen3.6-Plus,Max版本在SuperGPQA(高难度综合推理)上提升了2.3%,在中文语言测试QwenChineseBench上提升了5.3%。这是真实进步,不是换题刷分。
技术规格
上下文窗口:256k token。注意,这比Qwen3.6-Plus的100万token要小得多——阿里在这里做了权衡,用更短的窗口换取更高的推理质量。
输入格式:目前只支持文本,不支持图片。这对一个最强模型来说有点出乎意料,但Preview版本后续应该会补。
API兼容性:同时兼容OpenAI和Anthropic的API规范,切换成本极低。
Preserve_thinking:这是个值得关注的新功能——模型能把推理轨迹跨多轮对话传递。它记住自己之前是怎么想的,而不是每次都从零开始推理。对需要长流程、多步骤交互的场景很有用。
关键问题:为什么开源大户突然不开源旗舰了
Qwen系列此前走的是典型的开源路线。Qwen3用Apache协议,Qwen3.6-35B-A3B在4月16日刚刚开源,连权重都放出来了。
但Max这次不一样。
这不是阿里第一家走这条路的:
- Meta靠Llama开源建立了开发者生态,然后用Muse Spark推出第一个来自超级智能实验室的闭源旗舰
- 现在阿里也在最强的那个点划了一条线
背后逻辑不难理解。开源适合抢市场、建生态,让开发者站到你这边;但顶端的那几个模型,才是真正能谈大客户、收服务费的资产。开放小模型、收费大模型——这在2026年已经成了主流策略。
事实上,整个行业正在往这个方向收拢:OpenAI闭源旗舰、Meta闭源Muse Spark、阿里闭源Max。唯一坚持全开放的,主要剩下中小规模的研究实验室和一些带有明确理念的项目。
对开发者意味着什么
好消息:API兼容OpenAI和Anthropic的接口,如果你已经在用其中一套,切换几乎不需要改代码。
坏消息:不能本地部署了。数据隐私要求高、低延迟优先、需要离线运行的场景,Max不是选项。这种情况继续看Qwen3.6-35B-A3B。
中性消息:256k上下文对大多数实际任务够用。100万token的窗口让人印象深刻,但真正用满的场景并不多。Max把资源集中在推理质量上,这个取舍合理。
接下来会怎样
目前Max-Preview是Preview状态,按惯例:
- 图片支持会在正式版加上
- 价格策略还未公布,公测阶段暂无定价
- 开源小模型体系(35B-A3B等)照常维护,不会停
阿里在AI上的打法正在从广撒网建生态转向开源吸量、闭源变现。这个策略在2026年的AI市场里,几乎是必然的选择——因为纯开源跑到一定规模之后,商业化路径会变得很窄。
对于因为开源而选择Qwen的开发者,这个转变值得留意。旗舰闭源了,但小模型还在。怎么用,取决于你的场景。
参考来源:Alibaba Drops Qwen 3.6 Max Preview—Its Most Powerful Model Yet(Decrypt)