DeepSeek V4 vs Qwen 3.5:万亿参数的中国开源AI之战打起来了

 · 

如果你最近在关注AI行业,应该注意到一件有意思的事:两个中国开源模型正在抢占同一片市场,而且都在用极低的成本挑战那些动辄要价几十美元每百万token的闭源巨头。

DeepSeek V4和Qwen 3.5(部分渠道已标注为Qwen 3.6-Plus),这俩东西你搞清楚了吗?

先说数字

DeepSeek V4:

  • 总参数量约 1万亿(实际激活约320亿)
  • 上下文窗口:100万+ token
  • API定价:约 /usr/bin/bash.14/百万输入token
  • 训练成本:个位数百万美元量级

Qwen 3.5/3.6-Plus:

  • 总参数量约 3970亿(实际激活约170亿)
  • 上下文窗口:100万 token
  • 许可证:Apache 2.0(完全开放商用)
  • 支持语言:201种

对比一下GPT-5的API定价(约/百万input token),DeepSeek V4大概是它的三十五分之一的价格。

这俩到底谁更能打

说实话,各有绝活,不是一回事。

DeepSeek V4的优势在哪:

  • 超大上下文处理能力,扔给它一个几百万字的代码库或者长文档,它不会崩
  • 原生多模态,文字、图片、视频、音频一把梭,不需要外接适配器
  • 对大规模代码工程的理解力目前是开源里最强的

Qwen 3.5的底牌:

  • Apache 2.0许可,企业用可以随便商用,这点DeepSeek做不到
  • 201种语言支持,你要做多语言应用、特别是东南亚或小语种市场,Qwen是首选
  • 内置thinking/non-thinking两种推理模式,做Agent开发更灵活
  • MathVision基准88.6分,数学推理能力不弱

一句话总结:DeepSeek V4适合吃大文档、跑大代码库的场景;Qwen 3.5适合多语言、Agent开发、合规要求高的场景。

为什么这件事值得关注

两年前,中国AI模型在全球市场的占有率大概就是个零头。现在,DeepSeek和Qwen加起来已经拿下了大约15%的全球AI市场份额,而且这个曲线在继续往上。

更关键的是,他们打破了一个默认假设——你要有好模型就得有大预算。

GPT-5据估计训练花了超过1亿美元,而DeepSeek V4的训练成本可能在几百万美元量级。最终训出来的东西,在很多任务上差距已经缩小到了统计噪音的范围内。

对开发者意味着什么

如果你现在在选AI API来搭产品:

  • 预算敏感、高调用量:DeepSeek V4的价格优势太明显,很难绕过
  • 需要商用友好的许可证:Qwen的Apache 2.0是开源模型里最干净的
  • 做多语言SaaS:Qwen的201语言支持是真的好用
  • 大代码库分析:DeepSeek V4的百万token上下文 + 原生代码能力更适合

闭源模型在复杂多步推理和顶尖编程任务上还有优势,但这个差距在快速收窄。

还没结束

DeepSeek V4的完整版(万亿参数)实际上还没正式对外发布。3月9日出来的是约2000亿参数的V4 Lite版。完整版本预计就在这几周内。

Qwen这边,3.6-Plus在3月底上线OpenRouter,4月2日才正式对外公告,刚出来就跑出了在真实终端任务上超越Claude Opus 4.5的成绩。

这俩同时发力,同时抢市场,同时把价格打到地板上——这才是让整个行业紧张的真正原因。

参考来源:DeepSeek V4 and Qwen 3.5: Open-Source AI Is Rewriting the Rules in 2026(Particula.tech);DeepSeek V4 Release Imminent — China's Next-Gen AI Model Race Accelerates(Jangwook.net)