MiniMax在推理模型赛道上的存在感不算高,但M1的成绩单说明他们是认真在做事的。
M1的定位
M1是MiniMax的推理模型系列,对标的是OpenAI的o系列和DeepSeek的R1。核心能力集中在数学推理、代码生成和逻辑分析。
在SWE-bench Verified上,MiniMax M2.5(M1的迭代版)拿到了80.2%——排在Claude Opus 4.5和Gemini 3.1 Pro之后,比GPT-5.2还高0.2个百分点。这个成绩放在全球范围内属于第一梯队。
MoE架构
M1系列用的也是MoE(混合专家)架构,和DeepSeek、Qwen的路线一致。在保持高参数量(大容量)的同时,控制实际推理时的计算开销。
配合Lightning Attention技术,MiniMax在长上下文推理场景下的性价比比较突出——同样的任务,消耗的算力和时间更少。
低调策略
和其他国产大模型公司相比,MiniMax的PR做得很克制。不太热衷于发benchmark战报和营销稿,产品更新也不怎么搞发布会。
这种风格有利有弊:好处是不会给人”吹牛”的印象,坏处是市场认知度不高。很多开发者甚至不知道MiniMax的模型已经能和头部选手正面竞争了。
商业化路径
MiniMax的商业化走了To C + API双路线:
- To C端:海螺AI面向普通用户
- API端:提供开发者调用接口
这个策略和Anthropic(纯API起家后加To C)、OpenAI(ChatGPT先行再推API)都不同。MiniMax一开始就两条腿走路,可能是因为作为相对小的玩家,需要多个收入来源来支撑研发。
参考来源:SWE-bench排行榜、MiniMax官方API文档