这一巨头,看好大芯片

发布时间:2026-03-15 10:30  浏览量:2

亚马逊云科技(AWS)计划在其数据中心内部署由Cerebras设计的处理器,这是外界对这家专注于 AI 模型算力芯片的初创公司投下的最新一票信任。

根据两家公司周五公布的多年合作协议,AWS 将采用 Cerebras 的晶圆级引擎(WSE)芯片,为 AI 模型的推理业务提供算力,让模型能够响应用户请求。

双方并未披露协议的财务条款。

这笔交易凸显出算力市场的重大转变:AI 行业正从模型训练逐步转向推理。开发 AI 工具与智能体的企业意识到,图形处理器(GPU)虽然在训练环节快速且强大,但对于追求更低延迟、更高响应速度的推理任务而言并非理想选择。随着业务快速扩张、新增数百万用户,许多企业也在寻求供应商多元化。

作为全球最大云服务商,AWS 数据中心长期高度依赖旗下半导体部门Annapurna Labs自研的芯片,其中Trainium芯片大致对标英伟达、AMD 等大厂的 GPU 产品。

据《华尔街日报》报道,今年 1 月,ChatGPT 开发商 OpenAI 已与 Cerebras 签署价值超 100 亿美元的协议,为其热门聊天机器人提供算力。该交易让 Cerebras 重新受到市场瞩目。这家初创公司曾获得富达、Atreides、Benchmark、老虎环球、Coatue 等多家顶级机构投资,但此前曾一度面临融资困难。

Cerebras 曾在 2024 年 9 月提交 IPO 申请,约一年后撤回。今年 2 月,Cerebras 宣布完成10 亿美元新一轮融资,总融资额达26 亿美元,投后估值约230 亿美元。

OpenAI 计划通过 Cerebras 芯片部署最高750 兆瓦的算力。AWS 则计划在数据中心内将 Cerebras 芯片与自研 Trainium 芯片结合,以优化推理算力方案。

Cerebras 将自家芯片定位为“超高速推理解决方案”,并称其在处理推理中最关键的 “解码” 环节(AI 模型生成回复的阶段)时,速度最高可达英伟达 GPU 的25 倍。

“越来越多的人在使用 AI,使用频率更高,也用它解决更难的问题。”Cerebras 首席执行官安德鲁・费尔德曼在采访中表示,“这次合作让 Cerebras 与 Trainium 的组合进入全球最大云平台,也让我们触达海量客户。”

该交易对英伟达构成新挑战。目前英伟达正面临来自专用芯片厂商日益激烈的竞争,同时也被市场倒逼推出更快、更便宜的 AI 推理产品。去年 12 月,英伟达已与芯片初创公司 Groq 签署200 亿美元授权协议,并计划于下周发布一款基于 Groq 技术、专为推理优化的全新处理系统。

作为亚马逊旗下核心业务,AWS 与 Cerebras 表示,此次合作将提供业内最快的推理算力之一,并将以高端服务形式定价。

“我们的目标是提升速度、降低成本。”Annapurna Labs 联合创始人、AWS 副总裁兼杰出工程师纳菲阿・布沙拉表示。这家云计算公司仍会保留仅基于 Trainium的低速、低价算力服务。

“如果你只需要低速推理,会有更便宜的选择。” 费尔德曼说,“但如果你追求高速 token 生成、速度至关重要,比如做编程或智能体任务,我们不仅是绝对最快的,还打算树立行业标杆。我们入局,就是为了赢。”

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4346内容,欢迎关注。