4月8日,Meta发布了Muse Spark。
这是Meta有史以来第一个完全闭源的自研旗舰AI模型,也是那个斥资140亿美元引入Alexandr Wang、成立超级智能实验室(Meta Superintelligence Labs)之后的第一个重量级成果。
不再是Llama了
Llama打了Meta好几年的旗帜——开源、可本地部署、研究友好。
Muse Spark走了另一条路。它只能在 meta.ai 和 Meta AI app 里用,私有API还在少数用户内测。我们希望未来能开源某个版本——这句话说出来,开源社区应该能听出那个微妙的语气。
从Llama到Muse Spark,不是偶然转向。Meta在2025年底已经透露了代号Avocado和Mango的两个专有模型。现在Muse Spark是它们之前的首发,方向很清楚:Meta要在闭源赛道上跟OpenAI和谷歌正面刚了。
最值得关注的技术:思维压缩
Muse Spark有一个叫Contemplating模式的东西,大概相当于OpenAI的Thinking模式——让模型深度思考后再回答。
但有意思的地方在它内部的训练机制。
Meta工程师在强化学习阶段对模型的思考时间设置了惩罚——你想多了会被扣分。一开始,模型的反应是更快得出答案(质量下降)。但训练继续下去,有个转折点出现了:模型开始自己学会压缩思维——用更少的token,但保持同等的准确率。
Meta把这个叫做thought compression(思维压缩)。
效果呢?他们说,Muse Spark达到同等能力所需的计算量,比上一代旗舰 Llama 4 Maverick 少了一个数量级以上。
这不是小优化,是量级差异。
跑分怎么样
Contemplating模式下:
- Humanity’s Last Exam:58%(这个榜很难,58%是很有竞争力的数字)
- FrontierScience Research:38%
对比同期竞品:能和Gemini Deep Think、GPT Pro掰手腕,至少在这几个基准测试上是这样。
现实意义
Muse Spark会先推进Facebook、Instagram、WhatsApp、Messenger里的Meta AI功能,以及Ray-Ban眼镜。Meta的用户基数是数十亿量级,这个模型上线就是真实世界的大规模测试。
当然,只在美国可用——这个限制意味着国内用户暂时接触不到,但测试数据会很快出来。
Meta这次基本上在说:我们有足够好的模型,可以不靠开源策略来拉开发者生态了。
参考来源:Goodbye, Llama? Meta launches new proprietary AI model Muse Spark(VentureBeat);Meta debuts new AI model, attempting to catch Google, OpenAI(CNBC);Introducing Muse Spark: Scaling Towards Personal Superintelligence(Meta AI Blog)