OpenAI用Cerebras+博通+AMD,能降低英伟达垄断成本风险吗?
发布时间:2026-02-04 19:21 浏览量:1
是的,OpenAI通过与Cerebras、博通、AMD的多元化合作,能有效降低对英伟达的垄断成本风险。这更像是一场精心策划的“分散投资”,旨在构建一个更有韧性的算力组合,而不是彻底抛弃英伟达。
OpenAI过去深度依赖英伟达GPU,但单一供应商模式带来了多重风险。最直接的是
成本压力
——英伟达的芯片价格高昂,而推理环节的计算需求正在爆炸式增长。更关键的是,现有硬件架构在实时交互任务中遇到了性能瓶颈,公司CEO山姆·奥特曼公开表示,这已成为产品体验的掣肘。
此外,过度依赖也让OpenAI在供应链和议价权上处于被动。原本与英伟达洽谈的
千亿美元级深度合作
已陷入停滞,双方正转向更灵活的股权投资模式。这种背景下,寻找替代方案就成了必然选择。
OpenAI的策略是为不同工作负载匹配最合适的芯片,三家合作伙伴各有所长:
Cerebras专攻低延迟
:其价值超100亿美元的订单,将为OpenAI提供
750兆瓦
的专用推理算力。Cerebras的晶圆级芯片通过集成海量存储器,将数据访问路径大幅缩短,推理速度据称比传统GPU系统快
15-20倍
。这正好解决了ChatGPT等产品对毫秒级响应的苛刻要求。
博通是定制化“成本杀手”
:双方共同开发
10吉瓦
的定制AI推理芯片,预计2026年下半年投产。这款芯片针对OpenAI的“o1”系列模型优化,采用台积电3纳米工艺,目标是将每个生成token的能耗降低
30%
。
博通为谷歌设计的TPU已经证明,专用芯片在推理成本上可比英伟达H100低
30%至40%
。
AMD提供高性价比替代
:OpenAI计划部署最高
6吉瓦
的AMD GPU资源。AMD的
ROCm开源平台
赋予了更高的定制化权限,让企业能根据自身需求优化软硬件协同,从而在内存和存储成本上实现节约。这为通用训练任务提供了一个成本更优的备选方案。
从算力储备上看,OpenAI从博通、英伟达和AMD已锁定的总计算容量累计达
26吉瓦
,形成了一个规模可观的备份体系。这直接打破了“算力来源单一”的困局。
在成本层面,专用芯片的能效优势将带来实实在在的节省。例如,博通的定制芯片瞄准了能耗降低30%的目标。更深远的影响在于
议价权
——引入AMD、博通等竞争者后,OpenAI对英伟达的谈判能力显著增强。
英伟达原本的千亿投资方案大幅缩水至
200-300亿美元
的股权投资,就是这种博弈的直接体现。
当然,这并不意味着英伟达的时代结束了。其深厚的
CUDA软件生态
和在大模型训练领域的性能优势,短期内依然难以被完全取代。OpenAI的多元化,更像是在英伟达主导的棋盘上,为自己多占了几处要地,从而让未来的算力账单不那么令人心惊胆战。