Cerebras上市背后,OpenAI正在抢英伟达的蛋糕

发布时间:2026-05-09 12:40  浏览量:1

OpenAI还没上市,它的“算力小弟”先要上市了。

2026年5月,AI芯片制造商Cerebras Systems在最新S-1/A文件中披露IPO发行细节,股票代码CBRS,计划发行2800万股,定价区间115-125美元,募资规模最高可达35亿美元,目标估值达266亿美元。

这件事有点反常。

因为有黄仁勋这座大山在,资本怎么可能容得下小小的一只Cerebras呢?

大模型公司烧钱,云厂商买卡,创业公司排队等GPU,最后利润大多流向卖铲子的英伟达,这才是现状。

但OpenAI似乎想要改写这条链路。

5月6日,OpenAI组了个局,把自己放在了龙头老大的座位上,然后把英伟达、AMD、英特尔、博通、微软这些明显存在竞争关系的芯片公司拉到一起,推出了一套面向大型AI训练集群的网络协议(MRC,Multi-Rail Compute)。

表面上,这是一次超算网络合作。更深一层看,我认为OpenAI是想要重新分蛋糕了。

首先可以明确一点,OpenAI没有抛弃英伟达,它也没有办法抛弃英伟达。至少在当前阶段,OpenAI绝对没有勇气All in一个“英伟达杀手”。

相反,OpenAI正在把原本被英伟达一家公司强势覆盖的算力体系拆开:训练归训练,推理归推理,网络归网络,云归云。不同负载,用不同芯片;不同环节,找不同供应商。

Cerebras就是在这个时候被推上牌桌。

Cerebras当然还不是英伟达的对手,也不可能在短期内撼动CUDA和GPU集群构成的护城河。

但Cerebras的上市,真正值得看的地方,不是又一家AI芯片公司冲刺IPO,而是OpenAI开始把推理这门生意单独拎出来定价了。

01

押注推理

事实上,这已经是Cerebras第二次冲击IPO了。

2024年10月,Cerebras曾经提交过上市申请,但很快就撤回了。

原因是美国外资投资委员会(CFIUS)对它的阿联酋投资方G42展开审查。那时候,阿联酋G42人工智能公司不仅是Cerebras的股东,还是它最大的客户,贡献了超过80%的收入。

这种深度绑定的关系,再加上当时美国与阿联酋之间略微的不和谐,自然让监管部门不太放心Cerebras。

到了2025年3月,CFIUS终于放行,G42的股份被重组为无投票权股份,监管风险暂时解除。

但Cerebras并没有立刻重启上市,而是等到了2026年5月,恰好赶上了AI基础设施投资热。

Cerebras上市的真正意义,其实不在于它又是一家AI芯片公司要IPO。

市场上不缺芯片公司,缺的是一个故事,一个能让资本相信“推理市场可以独立定价”的故事。

OpenAI目前刚刚开始主动重组供应链,把不同芯片匹配到不同工作负载,这件事本身就是在细化芯片产业。

训练是一层,推理是一层,网络是一层,云分发是一层,应用场景又是一层。每一层都可以有不同的玩家,每一层都可以重新定价。

Cerebras在OpenAI的算力供应链中,负责的就是推理这一环。

Cerebras的核心竞争力,在于它那颗独特的晶圆级引擎芯片WSE-3。

传统芯片都是从一整片晶圆上切割出很多小块,每一小块是一颗芯片。

英伟达的GPU就是这么做的,然后再把很多颗GPU通过高速互联组成集群。这种方式的好处是成熟、稳定、生态完整,坏处是芯片之间来回搬数据的成本很高,尤其是在推理场景,延迟会被放大。

Cerebras的WSE-3完全不同。

它直接把整片12英寸晶圆做成一颗巨型芯片,面积达到46225平方毫米,相当于一张A4纸的三分之一大小。

WSE-3基于台积电5nm工艺,拥有4万亿个晶体管,90万个AI优化核心,44GB片上SRAM,内存带宽达到21PB/s。如果和英伟达H100对比,WSE-3的面积是H100的57倍,核心数量是52倍,片上内存是880倍,内存带宽是7000倍。

这些数字听起来很夸张,但关键不在于“大”,而在于“快”。

在推理场景,尤其是当下最火的长文本输出、实时交互、代码生成、agent这些需要低延迟的任务上,Cerebras的优势非常明显。

它的CS-3系统在推理速度上比英伟达DGX B200快21倍,成本和能耗都降低到三分之一。

快,就意味着OpenAI可以在单位时间内服务更多的客户。

训练市场是英伟达的绝对主场,CUDA生态、成熟工具链、大规模GPU集群,这些护城河短期内很难被撼动。

推理市场不一样,此前推理市场是个非常小众的市场,算力大头在训练。但是随着越来越多的行业、应用开始使用AI,推理正在成为AI应用商业化的关键。

早期,Cerebras主要卖硬件系统。一套CS-3系统售价高达数百万美元,客户群体主要是超大规模数据中心、云服务商和政府机构。这种模式的问题在于,客户采购门槛太高,销售周期长,收入波动大。

从2024年开始,Cerebras逐步转向基于自有芯片的云服务模式。客户不需要购买昂贵的硬件,只需要按需使用Cerebras的算力集群。

2025年,Cerebras的财务数据非常亮眼。全年营收5.1亿美元,比2024年的2.9亿美元增长了76%。更重要的是,净利润达到8790万美元,相比2024年4.85亿美元的巨额亏损,实现了扭亏为盈。

但Cerebras的客户集中度太高了。

2025年,阿联酋AI公司MBZUAI贡献了62%的收入,G42贡献了24%,前两大客户占比高达86%。未来,OpenAI将成为Cerebras最大的客户。

这确实给了Cerebras大量的收入,不过这就意味着Cerebras必须受制于这些大客户,不能有太多自己的想法。

02

OpenAI也在转型

2026年1月,OpenAI与Cerebras宣布签署多年协议。

根据协议,Cerebras将为OpenAI提供750兆瓦的低延迟AI算力,部署将分阶段进行到2028年,交易总价值超过200亿美元。这是全球最大的高速AI推理部署项目,也是OpenAI算力战略的一次重大转向。

但这份协议的深度,远不止采购合同这么简单。

OpenAI创始人奥特曼、总裁布鲁克曼、前首席科学家伊利亚、董事会成员亚当·安戈洛(Adam D‘Angelo),这些OpenAI的核心高管,都以个人的身份投资了Cerebras。

你以为这就完了?早着呢!

OpenAI还通过贷款、认股权证等金融工具,与Cerebras建立了长期利益绑定。这种超越简单供应商关系的深度合作,让Cerebras成为了OpenAI的资产,甚至我可以说

,现在的Cerebras,就是OpenAI的芯片部门。

这种绑定方式,在科技行业并不常见。

OpenAI与Cerebras的合作,不能简单理解成“用Cerebras替代英伟达”。

前文提到,OpenAI在2026年5月6日专门和各位芯片龙头企业组了个局,合作开发MRC网络协议,用于提升大型AI训练集群的网络效率和韧性。

OpenAI并没有放弃英伟达,但OpenAI也不想久居英伟达之下。

OpenAI的真实意图是什么?

训练继续使用英伟达高端GPU,推理引入Cerebras的低延迟方案,部分GPU采购AMD方案,网络协议开放化,云服务在AWS、Azure、谷歌Cloud之间多家下注。

未来,OpenAI还可能推进自研芯片。

这是一种“算力组合拳”策略,不同工作负载匹配不同系统,不再单独依赖英伟达的全栈方案。

这种战略转变的本质,是OpenAI正在从一家模型公司转变为算力架构公司。

以前,OpenAI只能被动接受芯片厂商定义的技术路线。

英伟达出什么芯片,OpenAI就用什么训练。

云厂商提供什么服务,OpenAI就在什么平台上部署。这种被动状态,在AI竞争的早期阶段是可以接受的,因为那时候最重要的是快速迭代模型,而不是优化基础设施。

但现在不一样了。

当ChatGPT的周活跃用户超过9亿,推理成本越来越高,OpenAI不能再被动得去等英伟达发布新产品,他们得主动设计更符合当下AI需求的算力组合。

OpenAI正在做的,是把芯片供应商从“平台提供者”降维为“模块供应商”。

在过去的AI算力市场,英伟达提供的不只是GPU,而是一整套从硬件到软件、从芯片到网络、从单机到集群的完整解决方案。客户买的不是一颗芯片,而是一个生态。

这种完整性,既是英伟达的核心竞争力,也是它能够维持高毛利率和定价权的根本原因。

OpenAI现在要打破这个完整性,英伟达的超级客户,开始逐渐掌握供应链的主导权。

这对英伟达来说,是比丢失订单更深层的冲击。

03

英伟达怎么说

虽然我前面下了很多利空英伟达的判断,但是我认为,Cerebras上市,对英伟达的冲击不会很大。就像身上长了个粉刺、痱子一样无关痛痒。

英伟达目前仍然占据AI芯片市场约80-90%的份额。

CUDA生态、GPU供应链、NVLink网络,这些护城河短期内很难被撼动。

Cerebras的WSE芯片单价高达数百万美元,产能有限,客户群体主要是超大规模数据中心和云服务商,无法在短期内大规模替代英伟达GPU。

更重要的是,CUDA生态经过十余年积累,已经成为AI开发的事实标准。几乎所有主流AI框架、模型、工具链,都优先适配CUDA。开发者社区、技术文档、最佳实践,全都围绕CUDA构建。

这种生态优势,不是一两年就能被追上的。

然而Cerebras对英伟达的威胁依然还是存在的。

过去,AI公司几乎别无选择,只能使用英伟达GPU。现在,至少在推理场景,客户有了可行的替代方案。这种选择权的出现,削弱了英伟达的定价权。

当OpenAI可以说“推理我用Cerebras,训练我用英伟达”时,英伟达就失去了“全包”的议价能力。

如果Cerebras的故事将通,那么AI算力市场就真的开始分层了。

训练和推理的需求差异被明确化,专用芯片在细分场景的优势被验证。英伟达“一种芯片打天下”的叙事不再完全成立。市场也会从“通用GPU垄断”走向“场景化芯片组合”。

在这个新格局里,英伟达在训练市场的优势依然稳固。但在推理市场,尤其是低延迟推理、实时交互这些场景,专用芯片的优势开始显现。

而且,还只是OpenAI这一家这么干。Anthropic也开始和亚马逊、谷歌结盟。这些头部AI公司,都在通过多元化采购来降低对英伟达的依赖。

英伟达面临的挑战还不止于此。

AI推理市场的快速增长,可能会超过训练市场。根据LP Information/MarketPublishers在《Cloud AI Inference Chips》这份报告中的预测,全球AI推理市场在2026-2032年期间的复合增长率将达到28.9%。

推理场景,肯定更适合专用芯片。当推理市场的规模超过训练市场时,英伟达在推理领域的相对弱势,就会成为更大的问题。

不过英伟达的短期优势依然稳固。

2026年,英伟达在GTC大会上强调了加速计算生态系统的深度,覆盖汽车、金融服务、医疗健康、工业、媒体、量子计算、零售、机器人和电信等多个领域。

黄仁勋把CUDA-X库称为英伟达的“掌上明珠”,这套丰富的软件栈,是Cerebras没有的,也是英伟达又一道护城河。

英伟达的Blackwell架构即将大规模出货,性能和能效都有显著提升。英伟达在训练市场上的优势,将会进一步巩固。

但长期来看,英伟达必须适应一个新现实,他们正在从“唯一供应商”变成“核心供应商之一”。

这个转变,不是因为英伟达变弱了,而是因为市场变大了,客户变强了,需求变复杂了。

当AI从实验室走向大规模商业化,当算力需求从训练扩展到推理,当超级客户开始主动设计算力架构,单一供应商的“完整解决方案”就绝对不再是最优的选择。