DeepSeek上线快速和专家两个聊天档位:专家模式反而不能传文件,V4还在等

4月8日,DeepSeek悄悄在聊天产品里上线了两个新模式:快速模式(Instant Mode)和专家模式(Expert Mode)。从名字看,专家模式更厉害;但用起来你会发现,「专家」在某些地方反而有限制。

两个模式,一个让你等

快速模式的设计逻辑是:日常对话,快速响应,省算力。

专家模式面向「复杂问题」,理论上输出质量更高,但代价是:用的算力更多,高峰期会排队,而且——文件上传功能被去掉了。

就是说,如果你想用DeepSeek分析一份PDF、处理一段数据,现在只能选快速模式。专家模式连文件都传不了,也没有多模态支持。

South China Morning Post做了个实测,拿一个JavaScript动画任务测了两个模式:

  • 快速模式:跑了超过一分钟,完成了任务,指令执行没问题
  • 专家模式:40秒跑完,比快速模式快,但——没按指令来

更快,但没做对。这个结果挺微妙的。

分层的背后

DeepSeek做这个改动,明显是在管峰值算力需求。

这套逻辑跟Google Gemini的Free/Advanced分级、ByteDance Doubao的差异化服务基本一样:用不同的响应速度和能力配置,把用户分流,把计算资源优先给愿意等或者愿意付费的用户。

问题是,DeepSeek现在的产品层还没有明确收费。目前两个模式对用户都是免费的。分层的形式有了,商业化的钩子还没挂上去。这步棋更像是在为后续付费体系铺路,还是在应付3月份那次大规模宕机之后的负载压力,现在不好判断——大概两者都有。

3月底DeepSeek经历了一次严重宕机,影响了数亿用户。虽然官方没有公布宕机的具体原因,但在那之后快速推出服务分层,时间节点上有点说明问题。

V4在哪里

专家模式没有多模态支持这件事,让不少用户猜测:这不是最终状态,可能在等V4的能力整合进来。

DeepSeek V4已经跳票很久了。原定春节前后发布,因为参数量超过一万亿,训练周期拖长,一再延期。现在比较靠谱的预期是4月下旬。

V4的规格数据早已在各种渠道流出:约1万亿MoE参数,SWE-bench估计在81%左右,支持100万token上下文,每百万token输入约0.3美元。如果这些数字是真的,发布之后会是一次很有分量的更新。

但V4没出来之前,用户能用到的就是这套快速/专家双模式。专家模式的限制(尤其是文件上传消失这件事)像是一个还没装好的占位符——功能框架搭了,完整能力还没填进去。

对用户意味着什么

现在的状态:

  • 日常聊天、快速问答:快速模式,速度快,功能完整
  • 复杂推理、需要深度分析:专家模式,质量理论上更好,但要接受高峰等待、无法传文件
  • 需要处理文档、图表:只能用快速模式

如果V4真的在月底前发布,专家模式大概率会得到补全。目前这个状态,更像是产品分层框架的一次早期测试,而不是一个完整的产品决策。

DeepSeek在2026年走到现在的路径挺有意思:从「用更少钱训练更好模型」的技术故事,慢慢开始涉及用户增长管理、服务分层设计这些更偏产品和商业的问题。技术红利往往就在这个阶段开始兑现,或者被消耗掉。

参考来源:China's DeepSeek adds expert chatbot mode ahead of much-awaited V4 release(South China Morning Post);DeepSeek V4 Release Date, Specs(FindSkill.ai)