一条消息引爆华尔街。
Cerebras,股票代码CBRS,芯片领域英伟达的直接挑战者,一家不切割晶圆、直接把整块300毫米硅片做成一颗芯片的AI公司——
它的IPO发行价从每股115到125美元,一路上调到150到160美元。超额认购已经达到20倍。
按最新区间顶端计算,估值直奔350亿美元,融资规模从35亿升至近48亿美元。
若成功落地,这将是2026年迄今全球最大IPO。
答案藏在一份供应链协议里。
今年1月,OpenAI官宣了一项与Cerebras的深度合作。协议内容是采购750兆瓦超低延迟AI算力,分批在2028年前交付。
外界估算,这份协议的潜在总价值超过200亿美元。
这不是普通的买卖关系。Cerebras在4月提交的S-1文件里披露,OpenAI还向公司提供了一笔10亿美元的运营资金贷款,年利率6%。
作为交换,OpenAI获得了大约3350万股Cerebras普通股的认股权证。这些权证在OpenAI从Cerebras采购达到2吉瓦算力时完全兑现。
OpenAI已经成为了Cerebras最核心的战略合作伙伴,两者关系相当紧密。
马斯克诉讼OpenAI的法庭文件曾披露,OpenAI高层一度考虑直接收购Cerebras,而非以客户身份合作。
Sam Altman、Greg Brockman、Ilya Sutskever等人,也均以个人身份入股了Cerebras。
Cerebras首席执行官Andrew Feldman在接受采访时毫不掩饰地说:
英伟达不想丢掉OpenAI的快速推理业务,但我们把它抢过来了。
除了OpenAI,AWS也随后宣布在Bedrock中接入Cerebras CS-3。
两家AI基础设施的最大买家同时站台,是此次IPO认购爆表的直接原因。
不过,这也不是Cerebras第一次冲击上市。
2024年,Cerebras首次公开提交了IPO申请。当时它的大客户是阿联酋的G42,一家阿布扎比背景的AI集团。
G42在2024年上半年为Cerebras贡献了超过87%的收入,客户集中度太高,更致命的是,G42同时还是Cerebras的投资方。
于是,这笔投资触发了美国外国投资委员会(CFIUS)的审查,IPO进程被冻结。
2025年10月,Cerebras正式撤回注册声明。
撤单后,Feldman做了一件堪称「壮士断腕」的事。他迅速重组了客户结构,用OpenAI和AWS填补G42留下的缺口。到2025年底,G42的收入占比从87%以上被压缩到24%。
与此同时,CFIUS的障碍也逐步扫清。G42被调整为持有无投票权股份,监管风险解除。
2026年4月,Cerebras重新公开提交了S-1(即向美国证券交易委员会提交的IPO招股文件)。
财务数据也给足了说服力。Cerebras 2025年全年营收5.1亿美元,同比增长76%。
更关键的是,公司实现了8790万美元的净利润。而2024年,它的净亏损还高达4.85亿美元。
可以想见,OpenAI的10亿美元贷款和算力采购协议,直接把Cerebras从烧钱模式拉进了盈利通道。
不过,账面漂亮不代表没有隐患。GAAP口径下,Cerebras的经营层面仍有1.46亿美元的运营亏损。
客户集中度虽然降了,但前三大客户依然占据收入的大头。其中OpenAI被招股书明确表述为「未来数年的主要收入来源」——这既是底气,也是风险。
如果OpenAI自研芯片,或者转向其他供应商,Cerebras的收入会受严重影响。
资本市场的高估值,本质上还是在赌Cerebras能把OpenAI的故事复制到更多客户身上。
Cerebras的核心竞争力,是其自研的晶圆级引擎(Wafer Scale Engine,WSE)。
传统芯片制造受光刻掩模尺寸限制,一颗GPU或CPU只能覆盖几百平方毫米的硅片面积。制造商会在一块300毫米的晶圆上切割出几十甚至上百颗独立芯片。
而Cerebras的方案是直接不切割,整块晶圆就是一颗芯片。
2019年,Cerebras在洛斯阿尔托斯一间简陋实验室里第一次跑通这件事。Feldman后来回忆:
英特尔10万人没做到,英伟达4万人没做到,我们85个人做到了。我们就站在那里,完全傻了。
它的第三代产品WSE-3,面积达到46,225平方毫米,大约是英伟达B200 GPU的58倍。上面集成了4万亿个晶体管和90万个AI计算核心。
这看起来像是工程上的暴力破解,但真正的技术壁垒并不在面积,而在内存。
GPU做AI推理时,最大的瓶颈不是算力,而是搬运。大模型的参数通常需要在外部内存(HBM)和计算核心之间频繁传输,这个搬运过程的延迟和带宽,直接决定了推理速度。业界把这个瓶颈称为「内存墙」。
WSE-3的解法是把内存直接建在芯片上。它的片上SRAM容量达到44GB,内存带宽达到每秒21PB。
这是什么概念?作为参照,英伟达H100的片上内存带宽大约是这个数字的七千分之一。
当整个模型直接住在芯片上,外部搬运的延迟就几乎被消除了。
效果如何?Cerebras官方称,跑Meta的Llama 4 Maverick(4000亿参数模型)时,其推理速度超过英伟达DGX B200 Blackwell系统的两倍。
在Hugging Face的推理提供商排行榜上,Cerebras长期位列第一。
Cerebras不卖单颗芯片,它卖的是一套完整的系统,型号叫CS-3。
每台CS-3包含一颗WSE-3、液冷系统、电源管理和配套软件。整机功耗约25千瓦,可以像一台服务器一样直接部署进数据中心。
它同时还提供云服务,叫Cerebras Inference。按官方说法,推理速度比传统GPU方案快15倍,成本低至三分之一。
Cerebras选择的主战场是推理,不是训练。
目前,AI行业正在从「训练更大的模型」转向「把模型部署出去」。Agent工作流、实时编程、多轮对话,这些场景下推理延迟会被指数级放大。
GPU在训练阶段所向披靡,但在推理阶段,它的内存墙问题越来越明显。
而从OpenAI到AWS,头部买家正在主动寻找英伟达之外的推理基础设施。
Cerebras踩对了这个节点,资本市场对其的狂热追捧也是顺理成章。
Cerebras有五位联合创始人:
Andrew Feldman、Gary Lauterbach、Michael James、Sean Lie、Jean-Philippe Fricker。
五位联创的故事,要从2007年讲起。
那一年,Andrew Feldman和Gary Lauterbach共同创立了SeaMicro,做能效比极高的微服务器。
另外三位联创,Michael James、Sean Lie、Jean-Philippe Fricker,也在这家公司并肩作战。
2012年,SeaMicro以3.34亿美元卖给AMD,五人随Feldman短暂留在AMD,随后各散东西。
再度聚首是2015年。
Feldman后来描述那次重聚时说,他们在白板上写了两件事:要再次合作,要做一件能载入计算机史的事。
在60余年的半导体史上,没有任何公司成功制造过晶圆级芯片,英特尔做不到,英伟达也没有。
这五个人决定试一下。
Cerebras,是他们给自己的答案。这也是Feldman的第五家创业公司。
团队分工清晰:Feldman担任CEO,是那种能用一句话讲清楚技术立场、同时搞定200亿美元合作的人。
Lauterbach是联合创始人兼荣誉CTO,现已退休。他在Sun Microsystems期间主导了UltraSPARC III和IV处理器的设计,后来在AMD担任数据中心服务器业务的CTO。
晶圆级芯片的核心技术构想,正是出自他。
Sean Lie接棒成为现任CTO,MIT电子工程硕士出身,在SeaMicro担任首席硬件架构师。他现在持有29项计算机架构专利。
剩下的两位,Michael James和Jean-Philippe Fricker,分别负责首席架构和系统架构。
值得一提的是,此次IPO中Feldman本人不出售任何股份。
Cerebras的定价预计本周敲定。
此刻,围绕AI的乐观情绪正在引爆芯片股。过去一个月,费城证券交易所半导体指数大涨超37%。
无论最终估值落在哪里,350亿已经证明了一件事:市场愿意为英伟达之外的挑战者,认真给出第一个答案。
参考链接:[1]https://www.reuters.com/legal/transactional/cerebras-raise-ipo-price-range-150-160-demand-surges-sources-say-2026-05-10/[2]https://www.cerebras.ai/blog/openai-partners-with-cerebras-to-bring-high-speed-inference-to-the-mainstream
本文来自微信公众号“量子位”,作者:听雨,36氪经授权发布。
发布时间:2026-05-11 15:11