DeepSeek R1开源之后,推理模型这条路被彻底跑通了

 · 

今年1月,DeepSeek把R1推理模型直接开源了,社区的反应很直接:没想到开源这边已经卷到这个程度了。

先看硬指标:

  • AIME数学竞赛:77.5分
  • MATH-500:96.2分
  • Codeforces编程:94百分位
  • MMLU:0.849

这几个数字放在一起看,基本上和OpenAI的o1打了个五五开。数学、代码、逻辑推理,三项全能选手。

但更让人意外的是蒸馏版。R1-Distill-Qwen-32B,一个32B参数的”小号”蒸馏模型,在好几个benchmark上直接超过了o1-mini。32B参数就能追平甚至反超闭源推理模型,这对小团队和独立开发者来说简直是天降福利——消费级显卡就能跑起来。

R1的推理方式走的是结构化Chain-of-Thought路线。在长上下文场景下,它会展现出很明显的”规划→执行→反思→修正”这套流程。128K的上下文窗口给了足够空间让推理链完整展开,不用担心中间被截断。

从产业角度往大了说,R1的真正冲击在于定价逻辑。以前闭源模型的溢价很大程度上靠的是”推理能力护城河”——你想用好的推理模型就得付费。现在这道墙被R1捅了个大窟窿,闭源厂商拿什么来维持定价优势?光靠品牌和生态吗?

这个问题在接下来几个季度会越来越尖锐。

参考来源:InfoQ DeepSeek R1发布报道、Hugging Face模型页面