如果你最近在关注AI行业,应该注意到一件有意思的事:两个中国开源模型正在抢占同一片市场,而且都在用极低的成本挑战那些动辄要价几十美元每百万token的闭源巨头。
DeepSeek V4和Qwen 3.5(部分渠道已标注为Qwen 3.6-Plus),这俩东西你搞清楚了吗?
先说数字
DeepSeek V4:
- 总参数量约 1万亿(实际激活约320亿)
- 上下文窗口:100万+ token
- API定价:约 /usr/bin/bash.14/百万输入token
- 训练成本:个位数百万美元量级
Qwen 3.5/3.6-Plus:
- 总参数量约 3970亿(实际激活约170亿)
- 上下文窗口:100万 token
- 许可证:Apache 2.0(完全开放商用)
- 支持语言:201种
对比一下GPT-5的API定价(约/百万input token),DeepSeek V4大概是它的三十五分之一的价格。
这俩到底谁更能打
说实话,各有绝活,不是一回事。
DeepSeek V4的优势在哪:
- 超大上下文处理能力,扔给它一个几百万字的代码库或者长文档,它不会崩
- 原生多模态,文字、图片、视频、音频一把梭,不需要外接适配器
- 对大规模代码工程的理解力目前是开源里最强的
Qwen 3.5的底牌:
- Apache 2.0许可,企业用可以随便商用,这点DeepSeek做不到
- 201种语言支持,你要做多语言应用、特别是东南亚或小语种市场,Qwen是首选
- 内置thinking/non-thinking两种推理模式,做Agent开发更灵活
- MathVision基准88.6分,数学推理能力不弱
一句话总结:DeepSeek V4适合吃大文档、跑大代码库的场景;Qwen 3.5适合多语言、Agent开发、合规要求高的场景。
为什么这件事值得关注
两年前,中国AI模型在全球市场的占有率大概就是个零头。现在,DeepSeek和Qwen加起来已经拿下了大约15%的全球AI市场份额,而且这个曲线在继续往上。
更关键的是,他们打破了一个默认假设——你要有好模型就得有大预算。
GPT-5据估计训练花了超过1亿美元,而DeepSeek V4的训练成本可能在几百万美元量级。最终训出来的东西,在很多任务上差距已经缩小到了统计噪音的范围内。
对开发者意味着什么
如果你现在在选AI API来搭产品:
- 预算敏感、高调用量:DeepSeek V4的价格优势太明显,很难绕过
- 需要商用友好的许可证:Qwen的Apache 2.0是开源模型里最干净的
- 做多语言SaaS:Qwen的201语言支持是真的好用
- 大代码库分析:DeepSeek V4的百万token上下文 + 原生代码能力更适合
闭源模型在复杂多步推理和顶尖编程任务上还有优势,但这个差距在快速收窄。
还没结束
DeepSeek V4的完整版(万亿参数)实际上还没正式对外发布。3月9日出来的是约2000亿参数的V4 Lite版。完整版本预计就在这几周内。
Qwen这边,3.6-Plus在3月底上线OpenRouter,4月2日才正式对外公告,刚出来就跑出了在真实终端任务上超越Claude Opus 4.5的成绩。
这俩同时发力,同时抢市场,同时把价格打到地板上——这才是让整个行业紧张的真正原因。
参考来源:DeepSeek V4 and Qwen 3.5: Open-Source AI Is Rewriting the Rules in 2026(Particula.tech);DeepSeek V4 Release Imminent — China's Next-Gen AI Model Race Accelerates(Jangwook.net)