奥特曼投100亿联Cerebras,750兆瓦算力:推理快21倍成本低30%

发布时间:2026-01-15 17:52  浏览量:1

前不久,OpenAI首席执行官Sam Altman在一次访谈中坦言:

“如果我们能拥有2倍的算力,那么收入能翻2倍;如果有10倍算力,收入也会翻10倍。”

现在,机会来了。

就在昨天,OpenAI宣布已与AI 芯片制造商 Cerebras 达成多年协议。

从今年开始一直到2028 年,OpenAI将持续从Cerebras购买 750 兆瓦的计算能力,全部采用Cerebras的晶圆级芯片。

据《Tech Crunch》报道,

这笔交易价值超过 100 亿美元。

为什么OpenAI要花大价钱从Cerebras购买算力?背后原因在于,

Cerebras的芯片在计算速度上相当具有竞争力,甚至超越了英伟达。

OpenAI的官方公告明示了此次交易的目的:旨在让其AI产品更快地对用户生成响应,并且特别指出将会把分阶段把Cerebras的算力集成到推理堆栈中。

据《华尔街日报》报道,在Cerebras 设计的AI芯片上运行 AI 模型,速度比英伟达更快——Cerebras的首席执行官 Andrew Feldman曾公开进行一系列演示,

由 Cerebras 芯片驱动的聊天机器人能比依赖竞争对手制造的处理器更快地向用户提供响应。

相信这里的“竞争对手”指的就是英伟达。而Feldman 也坦言,

更快的芯片计算速度,正是促使OpenAI 达成协议的原因。

芯片计算速度能超越巨头英伟达,Cerebras究竟是何来头?

Cerebras成立于2015年,在成立之初就将晶圆级计算技术推向了市场。这种技术路线与英伟达AI GPU算力体系以及谷歌TPU(AI ASIC技术路线)都截然不同,它采用 “晶圆级引擎”(Wafer‑Scale Engine, WSE) 架构,将整个AI模型放在单个超大芯片上。在芯片制造商普遍还是从硅锭切下一片晶圆并将其分割成数百颗独立芯片时,Cerebras选择了直接将整片晶圆做成一颗芯片。

这导致其单颗芯片的面积无比巨大。Cerebras于2024年推出的WSE-3,芯片面积达到了46225平方毫米,包含超过1.2万亿个晶体管,相比之下英伟达H100的芯片面积为814平方毫米,

前者是后者的56倍。

Cerebras计算核心的内存设计:每个核心配有独立内存

同时,Cerebras还设计了一个内核处理器,该处理器不依赖于芯片外通信,因为芯片外通信通常会干扰常规系统。WSE使存储内核更靠近计算内核,前者可以不断向后者提供数据,从而减少了计算内核的空转时间。

据 Cerebras 官方介绍,该芯片拥有专为机器学习设计的架构,它优化了芯片的AI训练。该芯片具有40万个可编程内核、18 GB静态随机存取存储器(SRAM)和每秒9 PB的存储带宽。与GPU相比,该芯片内核数量增加了78 倍、片上内存增加了3000倍,内存带宽增加了1万倍。

通过这样的方法,Cerebras极大提升了其芯片的推理性能和内存带宽,在单位推理量上实现更高的能效比,并且避免了GPU集群之间的数据拆分和高速通信开销这一重大瓶颈。

凭借独特的芯片技术,

Cerebras成为了芯片霸主英伟达最强劲的竞争对手之一

。这也是一家相当有野心的公司,其首席执行官Andrew Feldman直接公开表示,

他们的算力硬件运行人工智能大模型的实际效率是英伟达系统的数倍。

这话听起来很豪横,但也所言非虚。实际上,Cerebras主要瞄准的是大语言模型推理领域。在多个公开对比中,Cerebras最新的 CS-3 系统(搭载 WSE‑3 芯片) 在推理场景下可以达到远高于英伟达最新GPU体系——Blackwell架构AI GPU的性能。

Cerebras曾经放出一组令人咂舌的数据:

在运行Llama 3 70B时,CS-3的推理速度是英伟达 Blackwell B200 GPU的21倍

而在运行gpt-oss-120B时

,CS-3的推理速度是2700+token/秒,英伟达的 Blackwell B200 GPU 的推理速度仅为 900 token/秒,

大约3倍的差距

值得注意的是,CS-3的成本还比 Blackwell B200 GPU 低 32%。这使得在大规模推理领域,Cerebras 的WSE-架构在性价比上全面显示出相较于英伟达 GPU算力集群的显著优势。

这也正是OpenAI最看重的地方。

OpenAI在公开场合不止一次地表达过,他们实在太缺算力了。

奥特曼曾经在多次采访中抱怨:

“OpenAI 目前正受到 GPU 算力的严重制约,导致许多短期计划无法按时完成。”

而OpenAI 基础设施高管 Sachin Katti 也公开表示:

“OpenAI 收入的最大预测因素是计算量的多少,过去两年,我们每年计算量都持续增长三倍,收入也每年增长三倍。”

如今,OpenAI对算力的迫切需求体现在接二连三地签署重磅协议上。就在刚刚过去的2025年,

OpenAI连续与英伟达、AMD、博通都达成了合作

英伟达将向OpenAI投资最高1000亿美元支持新基础设施建设,目标是至少10千兆瓦容量;OpenAI将在多年内部署6千兆瓦的AMD处理器;OpenAI与博通将合作开发定制芯片和网络设备,计划部署10千兆瓦的AI数据中心容量。

现在OpenAI的“算力朋友圈”又多了一位新成员——Cerebras。

不过这两家公司背后其实颇有渊源。早在2017年,OpenAI就曾考虑收购刚成立不久的Cerebras,这个想法还是由OpenAI的联合创始人、前首席科学家Ilya提出的。当时马斯克还在资助OpenAI,于是Ilya提出可以通过马斯克的电动汽车公司特斯拉来收购Cerebras。但Feldman表示,他当时拒绝了这一交易。

尽管收购没有成功,但奥特曼曾个人投资Cerebras。他的投资帝国下还有另外两家芯片初创企业,分别是Rain Neuromorphics和Atomic Semi。

Rain Neuromorphics,这家公司设计的芯片模拟大脑工作方式,属于神经拟态芯片初创公司。Rain AI的首款芯片基于RISC-V开源指令集架构,面向包括手机、无人机/机器人等设备,其亮点是既能训练算法,又能在部署时运行。尽管第一批硬件尚未向客户交付,但OpenAI早已向Rain AI下了5100万美元的预定订单。

Atomic Semi由被戏称为“硅仙人”的

Jim Keller

和“硅神童”的

Sam Zeloof

共同创立,两位创始人的目标是让芯片生产加工更加简化,以期在数小时内生产出更廉价的芯片。

读到这里,你可能不难发现这场合作的重点:

没错,又是为了AI推理算力

前不久英伟达就刚做出了类似的事情:与AI芯片初创公司Groq达成200亿美元非独家授权合作协议,Groq将其AI推理技术授权给英伟达,并且交易完成后,Groq创始人及核心研发团队将加入英伟达。

据说在这场交易发生之后,Cerebras的估值也大幅上涨170%,由去年9月的81亿美元大幅上涨至最新的220亿美元,原因是英伟达对Groq的收购大举提振了投资者们对于人工智能芯片领域的看涨热情。

随着生成式AI开启规模化落地,战场已经转向推理:真实场景中海量数据的瞬间调用、百万Token的连续推理、长上下文的高效处理,都面临着巨大的算力需求。有媒体指出,

当前超大规模AI推理需求正呈现每六个月翻一番的极速增长趋势。

在AI训练侧,英伟达GPU几乎成垄断之势,在通用计算任务部署、AI训练算子以及CUDA生态兼容性方面依然有很大优势;而AI推理侧则在前沿AI技术规模化落地后,更看重单位token成本、延迟与能效。

AI推理领域的玩家有很多,既有谷歌、英伟达、AMD等行业巨头,也有Cerebras、Etched这样的芯片初创公司——每个人都急于吃下这块蛋糕。

在此之前,Cerebras在半导体市场一直表现平平。其2024年申请上市时,公司的大部分收入都来自于中东的一个单一客户——G42,后来Cerebras撤回了上市计划,并以81亿美元估值完成11亿美元的私募融资。

可以想见此番与OpenAI达成合作,Cerebras的估值有望继续提升。有媒体报道,Cerebras正在商讨以220亿美元的新估值寻求一轮大约10亿美元的新融资,并且继续推进在美股的首次IPO,以便继续挑战英伟达在芯片市场高达90%的市场份额。

同样,OpenAI也可以继续扩大其算力供应来源,延续多元化的芯片供应策略,为下一个增长阶段做好准备。

不过有看头的是,另一家有志于成为英伟达最强竞争对手之一的初创公司Etched,据媒体报道,在一轮新的融资中筹集了大约5亿美元,估值已来到约50亿美元。

AI推理市场有这么多对手致力于挑战英伟达……老黄又会如何应对呢?且让我们拭目以待吧!

参考链接:

https://www.wsj.com/tech/ai/openai-forges-multibillion-dollar-computing-partnership-with-cerebras-746a20e4?st=9j4kfq&reflink=desktopwebshare_permalink