OpenAI砸200亿美元买单,英伟达挑战者冲刺350亿美元估值IPO

  听雨发自凹非寺量子位 | 公众号 QbitAI

  一条消息引爆华尔街。

  Cerebras,股票代码 CBRS,芯片领域英伟达的直接挑战者,一家不切割晶圆、直接把整块 300 毫米硅片做成一颗芯片的 AI 公司——

  它的 IPO 发行价从每股 115 到 125 美元,一路上调到 150 到 160 美元。超额认购已经达到 20 倍。

  按最新区间顶端计算,估值直奔 350 亿美元,融资规模从 35 亿升至近 48 亿美元。

  若成功落地,这将是 2026 年迄今全球最大 IPO

  Cerebras 估值狂飙,底气从哪来

  答案藏在一份供应链协议里。

  今年 1 月,OpenAI 官宣了一项与 Cerebras 的深度合作。协议内容是采购 750 兆瓦超低延迟 AI 算力,分批在 2028 年前交付。

  外界估算,这份协议的潜在总价值超过 200 亿美元

  这不是普通的买卖关系。Cerebras 在 4 月提交的S-1 文件里披露,OpenAI 还向公司提供了一笔 10 亿美元的运营资金贷款,年利率6%。

  作为交换,OpenAI 获得了大约 3350 万股 Cerebras 普通股的认股权证。这些权证在 OpenAI 从 Cerebras 采购达到 2 吉瓦算力时完全兑现。

  OpenAI 已经成为了 Cerebras 最核心的战略合作伙伴,两者关系相当紧密。

  马斯克诉讼 OpenAI 的法庭文件曾披露,OpenAI 高层一度考虑直接收购 Cerebras,而非以客户身份合作。

  Sam Altman、Greg Brockman、Ilya Sutskever 等人,也均以个人身份入股了 Cerebras。

  Cerebras 首席执行官 Andrew Feldman 在接受采访时毫不掩饰地说:英伟达不想丢掉 OpenAI 的快速推理业务,但我们把它抢过来了。

  除了 OpenAI,AWS也随后宣布在 Bedrock 中接入 Cerebras CS-3。

  两家 AI 基础设施的最大买家同时站台,是此次 IPO 认购爆表的直接原因。

  不过,这也不是 Cerebras 第一次冲击上市。

  2024 年,Cerebras 首次公开提交了 IPO 申请。当时它的大客户是阿联酋的G42,一家阿布扎比背景的 AI 集团。

  G42 在 2024 年上半年为 Cerebras 贡献了超过 87% 的收入,客户集中度太高,更致命的是,G42 同时还是 Cerebras 的投资方。

  于是,这笔投资触发了美国外国投资委员会(CFIUS)的审查,IPO 进程被冻结。

  2025 年 10 月,Cerebras 正式撤回注册声明。

  撤单后,Feldman 做了一件堪称「壮士断腕」的事。他迅速重组了客户结构,用 OpenAI 和 AWS 填补 G42 留下的缺口。到 2025 年底,G42 的收入占比从 87% 以上被压缩到 24%。

  与此同时,CFIUS 的障碍也逐步扫清。G42 被调整为持有无投票权股份,监管风险解除。

  2026 年 4 月,Cerebras 重新公开提交了S-1(即向美国证券交易委员会提交的 IPO 招股文件)

  财务数据也给足了说服力。Cerebras 2025 年全年营收 5.1 亿美元,同比增长 76%。

  更关键的是,公司实现了 8790 万美元的净利润。而 2024 年,它的净亏损还高达 4.85 亿美元。

  可以想见,OpenAI 的 10 亿美元贷款和算力采购协议,直接把 Cerebras 从烧钱模式拉进了盈利通道。

  不过,账面漂亮不代表没有隐患。GAAP 口径下,Cerebras 的经营层面仍有 1.46 亿美元的运营亏损。

  客户集中度虽然降了,但前三大客户依然占据收入的大头。其中 OpenAI 被招股书明确表述为「未来数年的主要收入来源」——这既是底气,也是风险。

  如果 OpenAI 自研芯片,或者转向其他供应商,Cerebras 的收入会受严重影响。

  资本市场的高估值,本质上还是在赌 Cerebras 能把 OpenAI 的故事复制到更多客户身上。

  以超大芯片直接挑战英伟达

  Cerebras 的核心竞争力,是其自研的晶圆级引擎(Wafer Scale Engine,WSE)

  传统芯片制造受光刻掩模尺寸限制,一颗 GPU 或 CPU 只能覆盖几百平方毫米的硅片面积。制造商会在一块 300 毫米的晶圆上切割出几十甚至上百颗独立芯片。

  而 Cerebras 的方案是直接不切割,整块晶圆就是一颗芯片

  2019 年,Cerebras 在洛斯阿尔托斯一间简陋实验室里第一次跑通这件事。Feldman 后来回忆:

  • 英特尔 10 万人没做到,英伟达 4 万人没做到,我们 85 个人做到了。我们就站在那里,完全傻了。

  它的第三代产品WSE-3,面积达到 46,225 平方毫米,大约是英伟达 B200 GPU 的 58 倍。上面集成了 4 万亿个晶体管和 90 万个 AI 计算核心。

  这看起来像是工程上的暴力破解,但真正的技术壁垒并不在面积,而在内存。

  GPU 做 AI 推理时,最大的瓶颈不是算力,而是搬运。大模型的参数通常需要在外部内存(HBM)和计算核心之间频繁传输,这个搬运过程的延迟和带宽,直接决定了推理速度。业界把这个瓶颈称为「内存墙」

  WSE-3 的解法是把内存直接建在芯片上。它的片上 SRAM 容量达到 44GB,内存带宽达到每秒 21PB。

  这是什么概念?作为参照,英伟达 H100 的片上内存带宽大约是这个数字的七千分之一。

  当整个模型直接住在芯片上,外部搬运的延迟就几乎被消除了。

  效果如何?Cerebras 官方称,跑 Meta 的 Llama 4 Maverick(4000 亿参数模型)时,其推理速度超过英伟达 DGX B200 Blackwell 系统的两倍

  在 Hugging Face 的推理提供商排行榜上,Cerebras 长期位列第一。

  Cerebras 不卖单颗芯片,它卖的是一套完整的系统,型号叫CS-3

  每台 CS-3 包含一颗 WSE-3、液冷系统、电源管理和配套软件。整机功耗约 25 千瓦,可以像一台服务器一样直接部署进数据中心。

  它同时还提供云服务,叫 Cerebras Inference。按官方说法,推理速度比传统 GPU 方案快 15 倍,成本低至三分之一。

  Cerebras 选择的主战场是推理,不是训练。

  目前,AI 行业正在从「训练更大的模型」转向「把模型部署出去」。Agent 工作流、实时编程、多轮对话,这些场景下推理延迟会被指数级放大。

  GPU 在训练阶段所向披靡,但在推理阶段,它的内存墙问题越来越明显。

  而从 OpenAI 到 AWS,头部买家正在主动寻找英伟达之外的推理基础设施。

  Cerebras 踩对了这个节点,资本市场对其的狂热追捧也是顺理成章。

  五个人,要做一件能载入计算机史的事

  Cerebras 有五位联合创始人:

  Andrew Feldman、Gary Lauterbach、Michael James、Sean Lie、Jean-Philippe Fricker。

  五位联创的故事,要从 2007 年讲起。

  那一年,Andrew Feldman 和 Gary Lauterbach 共同创立了SeaMicro,做能效比极高的微服务器。

  另外三位联创,Michael James、Sean Lie、Jean-Philippe Fricker,也在这家公司并肩作战。

  2012 年,SeaMicro 以 3.34 亿美元卖给 AMD,五人随 Feldman 短暂留在 AMD,随后各散东西。

  再度聚首是 2015 年。

  Feldman 后来描述那次重聚时说,他们在白板上写了两件事:要再次合作,要做一件能载入计算机史的事

  在 60 余年的半导体史上,没有任何公司成功制造过晶圆级芯片,英特尔做不到,英伟达也没有。

  这五个人决定试一下。

  Cerebras,是他们给自己的答案。这也是 Feldman 的第五家创业公司。

  团队分工清晰:Feldman 担任 CEO,是那种能用一句话讲清楚技术立场、同时搞定 200 亿美元合作的人。

  Lauterbach 是联合创始人兼荣誉 CTO,现已退休。他在 Sun Microsystems 期间主导了 UltraSPARC III 和 IV 处理器的设计,后来在 AMD 担任数据中心服务器业务的 CTO。

  晶圆级芯片的核心技术构想,正是出自他。

  Sean Lie 接棒成为现任 CTO,MIT 电子工程硕士出身,在 SeaMicro 担任首席硬件架构师。他现在持有 29 项计算机架构专利。

  剩下的两位,Michael James 和 Jean-Philippe Fricker,分别负责首席架构和系统架构。

  值得一提的是,此次 IPO 中 Feldman 本人不出售任何股份。

  Cerebras 的定价预计本周敲定

  此刻,围绕 AI 的乐观情绪正在引爆芯片股。过去一个月,费城证券交易所半导体指数大涨超 37%。

  无论最终估值落在哪里,350 亿已经证明了一件事:市场愿意为英伟达之外的挑战者,认真给出第一个答案。

  [1]https://www.reuters.com/legal/transactional/cerebras-raise-ipo-price-range-150-160-demand-surges-sources-say-2026-05-10/

  [2]https://www.cerebras.ai/blog/openai-partners-with-cerebras-to-bring-high-speed-inference-to-the-mainstream