2025年底,英伟达CEO黄仁勋确认了一件让所有想买Blackwell的公司都头疼的事:B200和GB200 NVL72机架,已经卖到2026年中期都没货。
全球云厂商积压的订单里,单是那几家最大的就超过了360万个单位。
供应链到底卡在哪
Blackwell的问题不是一个环节,是全链路同时告急:
CoWoS封装:台积电把2026-2027年的相关产能基本全锁给了英伟达,其他客户只能等。
HBM3e内存:SK Hynix和Micron的2025年全部容量已满,还在计划2026年初涨价20%,SK Hynix和三星的扩产计划都在赶。
机架组装:戴尔、富士康、英业达、纬创等OEM厂之前碰到了技术问题(主要是液冷机架的工程挑战),最近才陆续解决,开始量产爬坡。
这些环节卡住的时候,哪怕芯片设计好了也出不了货。好消息是OEM问题基本解决了,坏消息是前面两个环节还是瓶颈。
下一代:Blackwell Ultra(GB300)
不等人的英伟达不打算让买家一直等。
**Blackwell Ultra(B300/GB300)**正在路上,按计划2026年上半年推出。关键升级:每颗GPU的HBM3e显存从B200的192GB提升到288GB,对超大模型的推理友好很多。
预测:GB300系列机架出货量2026年可能同比翻番以上。
再往后看,Rubin架构预计在2026年下半年进入市场,GTC大会已经做过预告。
对AI公司意味着什么
拿不到最新GPU的公司有几条路:
用H100/H200:英伟达在谈重新扩产H200,因为中国的阿里巴巴、字节等公司下了超过200万颗的H200订单。Hopper架构的货反而比Blackwell好拿到一些。
等位:微软、谷歌、AWS这类超级买家有优先队列,但等的时间也要按季度算。
转向竞品:AMD MI300X还有货,各家也在试——但大规模软件生态上还是CUDA更成熟。
自研:Google TPU、AWS Trainium、微软Azure Maia路线,但建设周期更长。
这个局面说明什么
AI基础设施的需求增速已经超过了全球供应链的响应速度,而且这个差距短期内填不上。不是英伟达不想卖,是产业链就这么大。
从台积电到HBM供应商,每一个环节都是独家或寡头垄断,没有快速扩容的空间。
目前的状况是:想买到Blackwell最新货的公司,要么早签了长期采购协议,要么就得等。
参考来源:Nvidia's Blackwell Dynasty: B200 and GB200 Sold Out Through Mid-2026(FinancialContent/TokenRing);NVIDIA's Blackwell Ultra GB300 AI Servers to Lead the AI Infrastructure Race(WCCFTech);Nvidia server makers solve Blackwell technical issues(Data Center Dynamics)