Cerebras上市背后,OpenAI正在抢英伟达的蛋糕

  OpenAI 还没上市,它的“算力小弟”先要上市了。

  2026 年 5 月,AI 芯片制造商 Cerebras Systems 在最新S-1/A文件中披露 IPO 发行细节,股票代码 CBRS,计划发行 2800 万股,定价区间 115-125 美元,募资规模最高可达 35 亿美元,目标估值达 266 亿美元。

  这件事有点反常。

  因为有黄仁勋这座大山在,资本怎么可能容得下小小的一只 Cerebras 呢?

  大模型公司烧钱,云厂商买卡,创业公司排队等 GPU,最后利润大多流向卖铲子的英伟达,这才是现状。

  但 OpenAI 似乎想要改写这条链路。

  5 月 6 日,OpenAI 组了个局,把自己放在了龙头老大的座位上,然后把英伟达、AMD、英特尔、博通、微软这些明显存在竞争关系的芯片公司拉到一起,推出了一套面向大型 AI 训练集群的网络协议(MRC,Multi-Rail Compute)。

  表面上,这是一次超算网络合作。更深一层看,我认为 OpenAI 是想要重新分蛋糕了。

  首先可以明确一点,OpenAI 没有抛弃英伟达,它也没有办法抛弃英伟达。至少在当前阶段,OpenAI 绝对没有勇气 All in 一个“英伟达杀手”。

  相反,OpenAI 正在把原本被英伟达一家公司强势覆盖的算力体系拆开:训练归训练,推理归推理,网络归网络,云归云。不同负载,用不同芯片;不同环节,找不同供应商。

  Cerebras 就是在这个时候被推上牌桌。

  Cerebras 当然还不是英伟达的对手,也不可能在短期内撼动 CUDA 和 GPU 集群构成的护城河。

  但 Cerebras 的上市,真正值得看的地方,不是又一家 AI 芯片公司冲刺 IPO,而是 OpenAI 开始把推理这门生意单独拎出来定价了。

  01

  押注推理

  事实上,这已经是 Cerebras 第二次冲击 IPO 了。

  2024 年 10 月,Cerebras 曾经提交过上市申请,但很快就撤回了。

  原因是美国外资投资委员会(CFIUS)对它的阿联酋投资方 G42 展开审查。那时候,阿联酋 G42 人工智能公司不仅是 Cerebras 的股东,还是它最大的客户,贡献了超过 80% 的收入。

  这种深度绑定的关系,再加上当时美国与阿联酋之间略微的不和谐,自然让监管部门不太放心 Cerebras。

  到了 2025 年 3 月,CFIUS 终于放行,G42 的股份被重组为无投票权股份,监管风险暂时解除。

  但 Cerebras 并没有立刻重启上市,而是等到了 2026 年 5 月,恰好赶上了 AI 基础设施投资热。

  Cerebras 上市的真正意义,其实不在于它又是一家 AI 芯片公司要 IPO。

  市场上不缺芯片公司,缺的是一个故事,一个能让资本相信“推理市场可以独立定价”的故事。

  OpenAI 目前刚刚开始主动重组供应链,把不同芯片匹配到不同工作负载,这件事本身就是在细化芯片产业。

  训练是一层,推理是一层,网络是一层,云分发是一层,应用场景又是一层。每一层都可以有不同的玩家,每一层都可以重新定价。

  Cerebras 在 OpenAI 的算力供应链中,负责的就是推理这一环。

  Cerebras 的核心竞争力,在于它那颗独特的晶圆级引擎芯片 WSE-3。

  传统芯片都是从一整片晶圆上切割出很多小块,每一小块是一颗芯片。

  英伟达的 GPU 就是这么做的,然后再把很多颗 GPU 通过高速互联组成集群。这种方式的好处是成熟、稳定、生态完整,坏处是芯片之间来回搬数据的成本很高,尤其是在推理场景,延迟会被放大。

  Cerebras 的 WSE-3 完全不同。

  它直接把整片 12 英寸晶圆做成一颗巨型芯片,面积达到 46225 平方毫米,相当于一张 A4 纸的三分之一大小。

  WSE-3 基于台积电 5nm 工艺,拥有 4 万亿个晶体管,90 万个 AI 优化核心,44GB 片上 SRAM,内存带宽达到 21PB/s。如果和英伟达 H100 对比,WSE-3 的面积是 H100 的 57 倍,核心数量是 52 倍,片上内存是 880 倍,内存带宽是 7000 倍。

  这些数字听起来很夸张,但关键不在于“大”,而在于“快”。

  在推理场景,尤其是当下最火的长文本输出、实时交互、代码生成、agent 这些需要低延迟的任务上,Cerebras 的优势非常明显。

  它的 CS-3 系统在推理速度上比英伟达 DGX B200 快 21 倍,成本和能耗都降低到三分之一。

  快,就意味着 OpenAI 可以在单位时间内服务更多的客户。

  训练市场是英伟达的绝对主场,CUDA 生态、成熟工具链、大规模 GPU 集群,这些护城河短期内很难被撼动。

  推理市场不一样,此前推理市场是个非常小众的市场,算力大头在训练。但是随着越来越多的行业、应用开始使用 AI,推理正在成为 AI 应用商业化的关键。

  早期,Cerebras 主要卖硬件系统。一套 CS-3 系统售价高达数百万美元,客户群体主要是超大规模数据中心、云服务商和政府机构。这种模式的问题在于,客户采购门槛太高,销售周期长,收入波动大。

  从 2024 年开始,Cerebras 逐步转向基于自有芯片的云服务模式。客户不需要购买昂贵的硬件,只需要按需使用 Cerebras 的算力集群。

  2025 年,Cerebras 的财务数据非常亮眼。全年营收 5.1 亿美元,比 2024 年的 2.9 亿美元增长了 76%。更重要的是,净利润达到 8790 万美元,相比 2024 年 4.85 亿美元的巨额亏损,实现了扭亏为盈。

  但 Cerebras 的客户集中度太高了。

  2025 年,阿联酋 AI 公司 MBZUAI 贡献了 62% 的收入,G42 贡献了 24%,前两大客户占比高达 86%。未来,OpenAI 将成为 Cerebras 最大的客户。

  这确实给了 Cerebras 大量的收入,不过这就意味着 Cerebras 必须受制于这些大客户,不能有太多自己的想法。

  02

  OpenAI 也在转型

  2026 年 1 月,OpenAI 与 Cerebras 宣布签署多年协议。

  根据协议,Cerebras 将为 OpenAI 提供 750 兆瓦的低延迟 AI 算力,部署将分阶段进行到 2028 年,交易总价值超过 200 亿美元。这是全球最大的高速 AI 推理部署项目,也是 OpenAI 算力战略的一次重大转向。

  但这份协议的深度,远不止采购合同这么简单。

  OpenAI 创始人奥特曼、总裁布鲁克曼、前首席科学家伊利亚、董事会成员亚当·安戈洛(Adam D‘Angelo),这些 OpenAI 的核心高管,都以个人的身份投资了 Cerebras。

  你以为这就完了?早着呢!

  OpenAI 还通过贷款、认股权证等金融工具,与 Cerebras 建立了长期利益绑定。这种超越简单供应商关系的深度合作,让 Cerebras 成为了 OpenAI 的资产,甚至我可以说,现在的 Cerebras,就是 OpenAI 的芯片部门。

  这种绑定方式,在科技行业并不常见。

  OpenAI 与 Cerebras 的合作,不能简单理解成“用 Cerebras 替代英伟达”。

  前文提到,OpenAI 在 2026 年 5 月 6 日专门和各位芯片龙头企业组了个局,合作开发 MRC 网络协议,用于提升大型 AI 训练集群的网络效率和韧性。

  OpenAI 并没有放弃英伟达,但 OpenAI 也不想久居英伟达之下。

  OpenAI 的真实意图是什么?

  训练继续使用英伟达高端 GPU,推理引入 Cerebras 的低延迟方案,部分 GPU 采购 AMD 方案,网络协议开放化,云服务在 AWS、Azure、谷歌 Cloud 之间多家下注。

  未来,OpenAI 还可能推进自研芯片。

  这是一种“算力组合拳”策略,不同工作负载匹配不同系统,不再单独依赖英伟达的全栈方案。

  这种战略转变的本质,是 OpenAI 正在从一家模型公司转变为算力架构公司。

  以前,OpenAI 只能被动接受芯片厂商定义的技术路线。

  英伟达出什么芯片,OpenAI 就用什么训练。

  云厂商提供什么服务,OpenAI 就在什么平台上部署。这种被动状态,在 AI 竞争的早期阶段是可以接受的,因为那时候最重要的是快速迭代模型,而不是优化基础设施。

  但现在不一样了。

  当 ChatGPT 的周活跃用户超过 9 亿,推理成本越来越高,OpenAI 不能再被动得去等英伟达发布新产品,他们得主动设计更符合当下 AI 需求的算力组合。

  OpenAI 正在做的,是把芯片供应商从“平台提供者”降维为“模块供应商”。

  在过去的 AI 算力市场,英伟达提供的不只是 GPU,而是一整套从硬件到软件、从芯片到网络、从单机到集群的完整解决方案。客户买的不是一颗芯片,而是一个生态。

  这种完整性,既是英伟达的核心竞争力,也是它能够维持高毛利率和定价权的根本原因。

  OpenAI 现在要打破这个完整性,英伟达的超级客户,开始逐渐掌握供应链的主导权。

  这对英伟达来说,是比丢失订单更深层的冲击。

  03

  英伟达怎么说

  虽然我前面下了很多利空英伟达的判断,但是我认为,Cerebras 上市,对英伟达的冲击不会很大。就像身上长了个粉刺、痱子一样无关痛痒。

  英伟达目前仍然占据 AI 芯片市场约 80-90% 的份额。

  CUDA 生态、GPU 供应链、NVLink 网络,这些护城河短期内很难被撼动。

  Cerebras 的 WSE 芯片单价高达数百万美元,产能有限,客户群体主要是超大规模数据中心和云服务商,无法在短期内大规模替代英伟达 GPU。

  更重要的是,CUDA 生态经过十余年积累,已经成为 AI 开发的事实标准。几乎所有主流 AI 框架、模型、工具链,都优先适配 CUDA。开发者社区、技术文档、最佳实践,全都围绕 CUDA 构建。

  这种生态优势,不是一两年就能被追上的。

  然而 Cerebras 对英伟达的威胁依然还是存在的。

  过去,AI 公司几乎别无选择,只能使用英伟达 GPU。现在,至少在推理场景,客户有了可行的替代方案。这种选择权的出现,削弱了英伟达的定价权。

  当 OpenAI 可以说“推理我用 Cerebras,训练我用英伟达”时,英伟达就失去了“全包”的议价能力。

  如果 Cerebras 的故事将通,那么 AI 算力市场就真的开始分层了。

  训练和推理的需求差异被明确化,专用芯片在细分场景的优势被验证。英伟达“一种芯片打天下”的叙事不再完全成立。市场也会从“通用 GPU 垄断”走向“场景化芯片组合”。

  在这个新格局里,英伟达在训练市场的优势依然稳固。但在推理市场,尤其是低延迟推理、实时交互这些场景,专用芯片的优势开始显现。

  而且,还只是 OpenAI 这一家这么干。Anthropic 也开始和亚马逊、谷歌结盟。这些头部 AI 公司,都在通过多元化采购来降低对英伟达的依赖。

  英伟达面临的挑战还不止于此。

  AI 推理市场的快速增长,可能会超过训练市场。根据 LP

  Information/MarketPublishers 在《Cloud AI Inference Chips》这份报告中的预测,全球 AI 推理市场在 2026-2032 年期间的复合增长率将达到 28.9%。

  推理场景,肯定更适合专用芯片。当推理市场的规模超过训练市场时,英伟达在推理领域的相对弱势,就会成为更大的问题。

  不过英伟达的短期优势依然稳固。

  2026 年,英伟达在 GTC 大会上强调了加速计算生态系统的深度,覆盖汽车、金融服务、医疗健康、工业、媒体、量子计算、零售、机器人和电信等多个领域。

  黄仁勋把 CUDA-X 库称为英伟达的“掌上明珠”,这套丰富的软件栈,是 Cerebras 没有的,也是英伟达又一道护城河。

  英伟达的 Blackwell 架构即将大规模出货,性能和能效都有显著提升。英伟达在训练市场上的优势,将会进一步巩固。

  但长期来看,英伟达必须适应一个新现实,他们正在从“唯一供应商”变成“核心供应商之一”。

  这个转变,不是因为英伟达变弱了,而是因为市场变大了,客户变强了,需求变复杂了。

  当 AI 从实验室走向大规模商业化,当算力需求从训练扩展到推理,当超级客户开始主动设计算力架构,单一供应商的“完整解决方案”就绝对不再是最优的选择。