MiniMax M1推理模型:闷声干活的实力派

 · 

MiniMax在推理模型赛道上的存在感不算高,但M1的成绩单说明他们是认真在做事的。

M1的定位

M1是MiniMax的推理模型系列,对标的是OpenAI的o系列和DeepSeek的R1。核心能力集中在数学推理、代码生成和逻辑分析。

在SWE-bench Verified上,MiniMax M2.5(M1的迭代版)拿到了80.2%——排在Claude Opus 4.5和Gemini 3.1 Pro之后,比GPT-5.2还高0.2个百分点。这个成绩放在全球范围内属于第一梯队。

MoE架构

M1系列用的也是MoE(混合专家)架构,和DeepSeek、Qwen的路线一致。在保持高参数量(大容量)的同时,控制实际推理时的计算开销。

配合Lightning Attention技术,MiniMax在长上下文推理场景下的性价比比较突出——同样的任务,消耗的算力和时间更少。

低调策略

和其他国产大模型公司相比,MiniMax的PR做得很克制。不太热衷于发benchmark战报和营销稿,产品更新也不怎么搞发布会。

这种风格有利有弊:好处是不会给人”吹牛”的印象,坏处是市场认知度不高。很多开发者甚至不知道MiniMax的模型已经能和头部选手正面竞争了。

商业化路径

MiniMax的商业化走了To C + API双路线:

  • To C端:海螺AI面向普通用户
  • API端:提供开发者调用接口

这个策略和Anthropic(纯API起家后加To C)、OpenAI(ChatGPT先行再推API)都不同。MiniMax一开始就两条腿走路,可能是因为作为相对小的玩家,需要多个收入来源来支撑研发。

参考来源:SWE-bench排行榜、MiniMax官方API文档