Qwen3用Apache协议开源,阿里这步棋下得够大方

 · 

阿里今年把Qwen3全系列模型用Apache 2.0协议开源了,从0.6B到235B一共8个尺寸,全线开放。

为什么Apache协议很重要?

Apache 2.0基本上是最宽松的开源协议之一,意味着企业可以免费商用,不用额外谈授权。对比之下,Meta的Llama系列虽然也号称”开源”,但实际上是”开放权重”,有各种使用限制。阿里这次的开放力度在国内大模型厂商里算是最到位的。

技术特点

Qwen3最有意思的设计是混合推理模式——同一个模型内置了thinking mode和non-thinking mode:

  • Thinking mode:深度推理,适合数学、代码、逻辑分析
  • Non-thinking mode:快速响应,适合日常对话

一个模型搞定两种场景,不用在”推理模型”和”对话模型”之间切换,对部署成本的优化很直接。

跑分

Qwen3-235B(MoE,激活22B参数)在多项benchmark上和DeepSeek R1、GPT-4o打得有来有回。成本端因为MoE架构,实际推理开销只相当于一个22B的dense模型。

更小尺寸的版本也有惊喜——Qwen3-4B在不少任务上打平了上一代的Qwen2.5-72B。四十多倍的参数差距被抹平了,这个进步幅度有点夸张。

阿里的策略很明确:用最激进的开源抢生态。开发者用Qwen3练手、做产品、搞商业化都没有授权障碍,生态跑起来之后再从云服务上赚钱。对标的就是Meta用Llama拉开源生态的那套打法。

参考来源:阿里云官方发布、Qwen GitHub仓库