听雨发自凹非寺量子位 | 公众号 QbitAI
一条消息引爆华尔街。
Cerebras,股票代码 CBRS,芯片领域英伟达的直接挑战者,一家不切割晶圆、直接把整块 300 毫米硅片做成一颗芯片的 AI 公司——
它的 IPO 发行价从每股 115 到 125 美元,一路上调到 150 到 160 美元。超额认购已经达到 20 倍。

按最新区间顶端计算,估值直奔 350 亿美元,融资规模从 35 亿升至近 48 亿美元。

若成功落地,这将是 2026 年迄今全球最大 IPO
Cerebras 估值狂飙,底气从哪来
答案藏在一份供应链协议里。
今年 1 月,OpenAI 官宣了一项与 Cerebras 的深度合作。协议内容是采购 750 兆瓦超低延迟 AI 算力,分批在 2028 年前交付。
外界估算,这份协议的潜在总价值超过 200 亿美元

这不是普通的买卖关系。Cerebras 在 4 月提交的S-1 文件里披露,OpenAI 还向公司提供了一笔 10 亿美元的运营资金贷款,年利率6%。
作为交换,OpenAI 获得了大约 3350 万股 Cerebras 普通股的认股权证。这些权证在 OpenAI 从 Cerebras 采购达到 2 吉瓦算力时完全兑现。
OpenAI 已经成为了 Cerebras 最核心的战略合作伙伴,两者关系相当紧密。
马斯克诉讼 OpenAI 的法庭文件曾披露,OpenAI 高层一度考虑直接收购 Cerebras,而非以客户身份合作。
Sam Altman、Greg Brockman、Ilya Sutskever 等人,也均以个人身份入股了 Cerebras。
Cerebras 首席执行官 Andrew Feldman 在接受采访时毫不掩饰地说:英伟达不想丢掉 OpenAI 的快速推理业务,但我们把它抢过来了。
除了 OpenAI,AWS也随后宣布在 Bedrock 中接入 Cerebras CS-3。

两家 AI 基础设施的最大买家同时站台,是此次 IPO 认购爆表的直接原因。
不过,这也不是 Cerebras 第一次冲击上市。
2024 年,Cerebras 首次公开提交了 IPO 申请。当时它的大客户是阿联酋的G42,一家阿布扎比背景的 AI 集团。
G42 在 2024 年上半年为 Cerebras 贡献了超过 87% 的收入,客户集中度太高,更致命的是,G42 同时还是 Cerebras 的投资方。

于是,这笔投资触发了美国外国投资委员会(CFIUS)的审查,IPO 进程被冻结。
2025 年 10 月,Cerebras 正式撤回注册声明。
撤单后,Feldman 做了一件堪称「壮士断腕」的事。他迅速重组了客户结构,用 OpenAI 和 AWS 填补 G42 留下的缺口。到 2025 年底,G42 的收入占比从 87% 以上被压缩到 24%。
与此同时,CFIUS 的障碍也逐步扫清。G42 被调整为持有无投票权股份,监管风险解除。
2026 年 4 月,Cerebras 重新公开提交了S-1(即向美国证券交易委员会提交的 IPO 招股文件)
财务数据也给足了说服力。Cerebras 2025 年全年营收 5.1 亿美元,同比增长 76%。
更关键的是,公司实现了 8790 万美元的净利润。而 2024 年,它的净亏损还高达 4.85 亿美元。

可以想见,OpenAI 的 10 亿美元贷款和算力采购协议,直接把 Cerebras 从烧钱模式拉进了盈利通道。
不过,账面漂亮不代表没有隐患。GAAP 口径下,Cerebras 的经营层面仍有 1.46 亿美元的运营亏损。
客户集中度虽然降了,但前三大客户依然占据收入的大头。其中 OpenAI 被招股书明确表述为「未来数年的主要收入来源」——这既是底气,也是风险。
如果 OpenAI 自研芯片,或者转向其他供应商,Cerebras 的收入会受严重影响。
资本市场的高估值,本质上还是在赌 Cerebras 能把 OpenAI 的故事复制到更多客户身上。
以超大芯片直接挑战英伟达
Cerebras 的核心竞争力,是其自研的晶圆级引擎(Wafer Scale Engine,WSE)
传统芯片制造受光刻掩模尺寸限制,一颗 GPU 或 CPU 只能覆盖几百平方毫米的硅片面积。制造商会在一块 300 毫米的晶圆上切割出几十甚至上百颗独立芯片。
而 Cerebras 的方案是直接不切割,整块晶圆就是一颗芯片
2019 年,Cerebras 在洛斯阿尔托斯一间简陋实验室里第一次跑通这件事。Feldman 后来回忆:
- 英特尔 10 万人没做到,英伟达 4 万人没做到,我们 85 个人做到了。我们就站在那里,完全傻了。

它的第三代产品WSE-3,面积达到 46,225 平方毫米,大约是英伟达 B200 GPU 的 58 倍。上面集成了 4 万亿个晶体管和 90 万个 AI 计算核心。
这看起来像是工程上的暴力破解,但真正的技术壁垒并不在面积,而在内存。
GPU 做 AI 推理时,最大的瓶颈不是算力,而是搬运。大模型的参数通常需要在外部内存(HBM)和计算核心之间频繁传输,这个搬运过程的延迟和带宽,直接决定了推理速度。业界把这个瓶颈称为「内存墙」
WSE-3 的解法是把内存直接建在芯片上。它的片上 SRAM 容量达到 44GB,内存带宽达到每秒 21PB。
这是什么概念?作为参照,英伟达 H100 的片上内存带宽大约是这个数字的七千分之一。
当整个模型直接住在芯片上,外部搬运的延迟就几乎被消除了。
效果如何?Cerebras 官方称,跑 Meta 的 Llama 4 Maverick(4000 亿参数模型)时,其推理速度超过英伟达 DGX B200 Blackwell 系统的两倍

在 Hugging Face 的推理提供商排行榜上,Cerebras 长期位列第一。
Cerebras 不卖单颗芯片,它卖的是一套完整的系统,型号叫CS-3
每台 CS-3 包含一颗 WSE-3、液冷系统、电源管理和配套软件。整机功耗约 25 千瓦,可以像一台服务器一样直接部署进数据中心。

它同时还提供云服务,叫 Cerebras Inference。按官方说法,推理速度比传统 GPU 方案快 15 倍,成本低至三分之一。
Cerebras 选择的主战场是推理,不是训练。
目前,AI 行业正在从「训练更大的模型」转向「把模型部署出去」。Agent 工作流、实时编程、多轮对话,这些场景下推理延迟会被指数级放大。

GPU 在训练阶段所向披靡,但在推理阶段,它的内存墙问题越来越明显。
而从 OpenAI 到 AWS,头部买家正在主动寻找英伟达之外的推理基础设施。
Cerebras 踩对了这个节点,资本市场对其的狂热追捧也是顺理成章。
五个人,要做一件能载入计算机史的事
Cerebras 有五位联合创始人:
Andrew Feldman、Gary Lauterbach、Michael James、Sean Lie、Jean-Philippe Fricker。

五位联创的故事,要从 2007 年讲起。
那一年,Andrew Feldman 和 Gary Lauterbach 共同创立了SeaMicro,做能效比极高的微服务器。
另外三位联创,Michael James、Sean Lie、Jean-Philippe Fricker,也在这家公司并肩作战。
2012 年,SeaMicro 以 3.34 亿美元卖给 AMD,五人随 Feldman 短暂留在 AMD,随后各散东西。
再度聚首是 2015 年。
Feldman 后来描述那次重聚时说,他们在白板上写了两件事:要再次合作,要做一件能载入计算机史的事
在 60 余年的半导体史上,没有任何公司成功制造过晶圆级芯片,英特尔做不到,英伟达也没有。
这五个人决定试一下。
Cerebras,是他们给自己的答案。这也是 Feldman 的第五家创业公司。
团队分工清晰:Feldman 担任 CEO,是那种能用一句话讲清楚技术立场、同时搞定 200 亿美元合作的人。

Lauterbach 是联合创始人兼荣誉 CTO,现已退休。他在 Sun Microsystems 期间主导了 UltraSPARC III 和 IV 处理器的设计,后来在 AMD 担任数据中心服务器业务的 CTO。
晶圆级芯片的核心技术构想,正是出自他。

Sean Lie 接棒成为现任 CTO,MIT 电子工程硕士出身,在 SeaMicro 担任首席硬件架构师。他现在持有 29 项计算机架构专利。

剩下的两位,Michael James 和 Jean-Philippe Fricker,分别负责首席架构和系统架构。

值得一提的是,此次 IPO 中 Feldman 本人不出售任何股份。
Cerebras 的定价预计本周敲定
此刻,围绕 AI 的乐观情绪正在引爆芯片股。过去一个月,费城证券交易所半导体指数大涨超 37%。
无论最终估值落在哪里,350 亿已经证明了一件事:市场愿意为英伟达之外的挑战者,认真给出第一个答案。
[1]https://www.reuters.com/legal/transactional/cerebras-raise-ipo-price-range-150-160-demand-surges-sources-say-2026-05-10/
[2]https://www.cerebras.ai/blog/openai-partners-with-cerebras-to-bring-high-speed-inference-to-the-mainstream
