那个芯片比H100大56倍的Cerebras,终于要去纳斯达克上市了

Cerebras Systems正在冲刺今年二季度的纳斯达克上市,目标融资20亿美元,估值在220到250亿之间。

如果成功,这会是英伟达GPU垄断形成以来,第一家在公开市场亮相的纯AI芯片替代方案公司。

它卖的是什么东西?

Cerebras的核心技术是Wafer Scale Engine 3(WSE-3)——字面意思就是晶圆级别的AI处理器。

不是说参数多,是物理意义上的大:WSE-3直接占用了整张硅晶圆,比英伟达最大的GPU大 56倍。里面塞了90万个AI计算核心和4万亿个晶体管。

做这么大的意义是什么?

GPU集群推理慢,很大程度上是因为芯片之间传数据耗时——你有10个H100,但这10个芯片要不停地互相发数据,中间的通信开销很大。WSE-3把这个问题从根上解决了,推理速度比GPU系统快 20倍以上,单位算力功耗更低。

商业上跑通了吗?

有一个标志性合同:OpenAI跟Cerebras签了超过 100亿美元 的算力供应合同,部署了750兆瓦的Cerebras推理基础设施——这是全球最大规模的高速AI推理集群,OpenAI在这套系统上的推理速度比原来的GPU快15倍。

2026年2月完成的10亿美元H轮,投资方包括Tiger Global、Benchmark、AMD、Fidelity等,估值230亿美元。

其他客户还有IBM、Meta、Mistral AI。

上市路有点一波三折

Cerebras不是第一次准备上市。

2025年10月,就在宣布11亿美元G轮融资之后没几天,它突然撤回了IPO申请。原因:美国CFIUS(外国投资委员会)在审查公司的投资人结构,具体是阿联酋公司G42在Cerebras的股权问题。

G42是中东头部科技投资机构,但同时跟中国科技公司有深度合作——这在美国政府眼里是敏感的。

解决方案不复杂但挺说明问题:把G42持有的股权全部转为 无投票权股份,让G42退出公司治理但保留财务权益。CFIUS过了,上市继续推进。

这个插曲本身就是一个缩影:AI基础设施在2026年不只是商业问题,是地缘政治问题。一家美国AI芯片公司的投资人结构能让上市计划搁置大半年。

为什么这件事值得关注?

英伟达的CUDA生态护城河目前还是整个AI行业最深的壁垒。所有主流AI框架默认支持CUDA,训练和推理基础设施大量依赖H100/H200。

Cerebras走的路跟英伟达不一样——它不打算在同一赛道竞争,而是在推理速度和能效这两个维度上做差异化。

上市之后有几个问题值得观察:

  • 机构投资者怎么给它估值?230亿的私募估值放到公开市场能守住吗?
  • 训练场景的短板怎么补?Cerebras在推理场景优势明显,但AI公司的资本支出重心还在训练上
  • OpenAI的百亿合同会不会成为过度依赖单一客户的风险?

第一家在公开市场验证”非CUDA路线”的公司,不管结果如何,这个故事本身就够说一段时间了。

参考来源:Nvidia Rival Cerebras Raises $1 Billion in Funding at $23 Billion Valuation(Bloomberg);Cerebras Systems Raises $1 Billion Series H(Cerebras.ai press release);Cerebras Targets April AI Chip IPO to Raise $2 Billion(AI CERTs News);AI chipmaker Cerebras targets Q2 2026 for IPO launch(Seeking Alpha)