国产算力里程碑!摩尔线程联合智源,完成RoboBrain 2.5全流程训练

发布时间:2026-01-13 22:32  浏览量:1

2026 年 1 月 13 日,国产 AI 领域迎来重磅突破:摩尔线程联合北京智源人工智能研究院,依托 MTTS5000 千卡智算集群与 FlagOS-Robo 框架,成功完成具身大脑模型 RoboBrain 2.5 的全流程训练。这是国产算力首次验证在具身智能大模型训练中的可用性与高效性,交出了训练误差小于 0.62%、千卡加速比超 90% 的亮眼成绩。模型新增动作时序价值与三维空间结构理解能力,让下游任务执行成功率显著提升,网友热议 “国产算力也能训得又快又稳”。这场突破不仅打破了国外算力在核心 AI 领域的垄断,更通过 “代码不改、精度不降” 的跨平台优势,推动具身智能从实验室走向规模化应用。

在美国芯片禁令的背景下,摩尔线程的 MTTS5000 千卡智算集群实现了关键技术突破。其自主研发的高速互联通信架构,将节点间数据传输延迟降低至微秒级,配合超高显存带宽设计,单卡 Prefill 吞吐速度突破 4000tokens/s,Decode 吞吐速度突破 1000tokens/s,算力效率超过同等规模国外同代系 GPU 集群。

核心优势来自摩尔线程自主设计的 MUSA 架构,该架构支持从 FP8 到 FP64 的全计算精度,在内存管理上采用智能调度算法,大幅提升数据复用率。半导体行业协会数据显示,国产 GPU 芯片良率已提升至国际主流水平,为 MTTS5000 集群的稳定运行提供了硬件基础。参与项目的工程师透露,团队通过三次关键算法调优,解决了分布式训练中的梯度不一致问题,最终实现了千卡规模下的高效协同。

FlagOS-Robo 框架的 “跨平台迁移” 能力,成为具身智能产业化的关键底座。作为智源 FlagOS 1.6 版本的核心模块,它通过统一框架插件、算子自动生成等技术,实现了 “代码不改、精度不降” 的适配效果,让开发者无需修改原有 PyTorch 代码,就能快速迁移至国产算力平台。

框架内置的 FlagScale v1.0 分布式训练组件,采用非侵入式修改方案,极大降低了适配成本,助力大模型实现 Day0 支持。首批适配的 5 个开源项目涵盖服务机器人导航、工业机械臂控制等核心场景,头部 AI 公司 CTO 反馈,使用该框架后,异构计算集群的管理效率提升 30%,显存占用降低 25%,显著降低了中小企业的落地门槛。

RoboBrain 2.5 的突破,打破了 “具身智能 = 机器人 + ChatGPT” 的认知误区。模型采用 “大脑 - 小脑” 分层架构,新增的动作时序价值评估能力,让机器人能预判动作连锁反应;三维空间结构理解则解决了复杂环境中的定位与操作难题,在 VABench-V 任务中,其物理常识推理准确率远超传统模型。

针对行业三大认知误区,该模型给出了实际解决方案:一是区分大语言模型与智能体,通过 “感知 - 认知 - 决策 - 行动” 闭环,避免 “只会说不会做”;二是突破仿真环境局限,结合真实场景数据训练,提升模型泛化能力;三是实现感知决策一体化,解决分离式架构导致的响应延迟问题。在多机器人协作场景中,不同本体的机器人可通过共享记忆库实时同步信息,完成 “导航 - 抓取 - 递送” 的复杂协同任务。

这场技术突破的深层意义,在于构建了 “国产算力 + 自主框架 + 开源生态” 的完整链条。摩尔线程与智源的合作,不仅验证了国产软硬件的兼容性与高效性,更通过开源策略聚集全球开发者。截至目前,相关框架已吸引 15 万开发者参与,在服务机器人、工业自动化、智慧物流等领域形成规模化应用场景。

从 MTTS5000 的算力突破,到 FlagOS-Robo 的生态赋能,再到 RoboBrain 2.5 的能力升级,国产具身智能正走出一条自主创新的道路。随着技术的持续迭代,国产 AI 基础设施将在更多核心领域实现替代,为智能制造、智慧生活等场景提供底层支撑,真正开启 “中国创造” 的 AI 新时代。