IT之家 2 月 10 日消息,今日阿里巴巴达摩院发布具身智能大脑基础模型 RynnBrain,并一次性开源了包括 30B MoE 在内的 7 个全系列模型。官方称,RynnBrain 首次让机器人拥有了时空记忆和空间推理能力,智能水平实现大幅跃升,在 16 项具身开源评测榜单上刷新纪录(SOTA),超越谷歌 Gemini Robotics ER 1.5 等行业顶尖模型。IT之家附官方详细介绍如下:具身模型的智能水平已成为行业发展的重要瓶颈,尤其是泛化能力亟待提升。业界形成了多条技术路线的探索:一类是动作模型,从机器人末端动作输出着手,发展出可以直接操作物理世界的 VLA 模型,但 VLA 模型往往因为数据稀缺难以实现泛化;另一类是大脑模型,从本身具有泛化能力的 VLM 等模型入手,但他们普遍缺乏记忆能力,动态认知受限,且普遍存在物理幻觉,难以支持人形机器人复杂的移动操作。为了克服这些问题,达摩院的 RynnBrain 模型创造性地引入了时空记忆和物理世界推理,这是机器人与环境互动所需的两项基本能力。时空记忆能力可让机器人在其完整的历史记忆中定位物体、目标区域,甚至预测运动轨迹,从而赋予机器人全局时空回溯能力。物理空间推理不同于传统的纯文本推理范式,RynnBrain 采用文本与空间定位交错进行的推理策略,确保其推理过程紧密扎根于物理环境,大大减弱了幻觉问题。举例来说,运行 RynnBrain 模型的机器人,在执行 A 任务中被突然打断要求先做 B 任务,它能记住 A 任务的时间和空间状态,等完成 B 后继续工作。
RynnBrain 在 Qwen3-VL 基础上训练,使用自研的 RynnScale 架构进行训练优化,同等资源加速两倍,训练数据超过 2000 万对。结果显示,RynnBrain 能力全面,性能领先,在 16 项具身开源评测榜单上刷新纪录(SOTA),包括环境感知与对象推理、第一人称视觉问答、空间推理、轨迹预测等,超越了谷歌 Gemini Robotics ER 1.5、英伟达 Cosmos Reason 2 等具身顶尖模型。
RynnBrain 还拥有良好的可拓展性,能够快速后训练出导航、规划、动作等多种具身模型,有望成为具身行业的基础模型。以具身规划模型为例,其需要强大预测能力和场景解析能力,但基于 RynnBrain 为基础,只需几百条数据微调,效果就能超越 Gemini 3 Pro,轻松实现 SOTA。以开源完整的推理与训练代码的方式,达摩院此次开源了 RynnBrain 全系列模型,共计 7 个,包含全尺寸基础模型与后训练专有模型,其中有业界首个 MoE 架构的 30B 具身模型,只需要 3B 的推理激活参数就能超越业界的 72B 模型效果,因此能让机器人动作更快、更丝滑。同时,达摩院还开源了全新评测基准 RynnBrain-Bench,用于评测时空细粒度具身任务,填补了行业空白。
达摩院具身智能实验室负责人赵德丽表示:“RynnBrain 首次实现了大脑对物理世界的深度理解与可靠规划,为大小脑分层架构下的通用具身智能迈出关键一步。我们期待它加速 AI 从数字世界走向真实物理场景的落地进程。”据了解,达摩院积极投入具身智能,正在构建可部署、可扩展、可进化的具身智能系统,已开源了融合世界模型和 VLA 模型的 WorldVLA、世界理解模型 RynnEC 等具身模型,以及业界首个机器人上下文协议 RynnRCP。更多详情可点击以下链接:github:https://github.com/alibaba-damo-academy/RynnBrainhuggingface:https://huggingface.co/collections/Alibaba-DAMO-Academy/rynnbrain主页:https://alibaba-damo-academy.github.io/RynnBrain.github.io/
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
