有个数字挺有意思:2025年初,DeepSeek和Qwen加起来占全球AI市场份额不到1%;到2026年1月,这个数字变成了15%。
一年时间,从边缘选手跑到行业不能忽视的位置,速度快得有点离谱。
背后发生了什么,值得梳理一下。
DeepSeek V4:那个一万亿参数的庞然大物
DeepSeek V4全量版本目前还没正式公开发布(截至4月初),但各路消息和技术细节已经传得很清楚了。
核心参数:约一万亿总参数,每个Token实际激活约320亿——混合专家架构(MoE)的经典玩法,计算效率远高于纯Dense模型。
几个让人眼前一亮的地方:
上下文窗口直接干到100万Token。V3是128K,这次是8倍跳跃,一次能把整个代码库或者一本厚书塞进去。对于需要跨文件分析代码、处理超长合同文档的场景,这个变化是实质性的。
原生多模态。文字、图片、视频、音频,不需要额外的适配层,统一处理。这个架构设计比那些后期打补丁加多模态的方案要干净得多。
定价:/usr/bin/bash.14/百万输入Token。GPT-5的大约二十分之一。
有个案例说得比较直白:某公司每天处理5万份金融文档,用GPT-5每月,200,换DeepSeek V4同等精度下只需要10。
Qwen 3.5/3.6:阿里的另一张牌
就在DeepSeek V4磨刀霍霍的时候,阿里巴巴在3月底到4月初密集发布了好几个Qwen新版本。
Qwen3.5-Omni在4月1日上线,Qwen3.6-Plus在4月2日正式公告,参数量约397亿活跃参数,带百万Token上下文和内置推理链。
和DeepSeek V4的主要差异:
| DeepSeek V4 | Qwen 3.6-Plus | |
|---|---|---|
| 许可证 | DeepSeek License(有限制) | Apache 2.0 |
| 多语言支持 | ~50种语言 | 201种语言 |
| 参数规模 | ~1T总参/32B活跃 | 397B总参/17B活跃 |
| 企业部署成本 | 低 | 更低 |
Apache 2.0这点对企业来说是实打实的好处——不需要专门找法务团队审核License,部署流程可以直接跑起来。
另外,201种语言支持对出海场景、多地区业务的公司吸引力相当明显。
开源的性价比逻辑已经成立了
说实话,一年前你要是告诉一个企业决策者用开源模型替换GPT-4,大概会被当成冒险。现在这个对话变了。
几个变化是真实的:
能力差距在缩小。在代码生成、文档处理、数据分析等标准任务上,DeepSeek V4和Qwen 3.5的表现已经和闭源顶级模型基本齐平,在某些专项跑分上甚至超越。
价格差距还在扩大。DeepSeek V4的API价格约是GPT-5的5%,Qwen系列通过SiliconFlow等平台的定价也在同一量级。
可部署性提升了。两个模型都支持本地部署,数据不出境的合规需求终于有了靠谱选项。
当然开源不是万能的——处理高度专业化任务(比如医疗、法律等专业领域)、需要持续更新维护的场景,闭源模型的优势还在。但对于绝大多数日常AI应用,这个账现在真的值得重算。
接下来的变量
DeepSeek V4完整版啥时候放出来,是今年最值得盯着的发布之一。
如果完整版性能兑现预期,加上那个离谱的价格,对GPT-5和Claude Opus系列的压力会非常直接。
Anthropic上周刚因为OpenClaw问题让开发者颇有怨言,这时候开源阵营的竞争力再上台阶,时机挺微妙的。
参考来源:DeepSeek V4 and Qwen 3.5: Open-Source AI Is Rewriting the Rules in 2026(Particula Tech)、AI Updates Today (April 2026) – Latest AI Model Releases(llm-stats.com)