本报讯 (记者 徐赣鹰)  日前,在北京举行的世界机器人大会上,阿里达摩院宣布开源自研的VLA模型RynnVLA-001-7B、世界理解模型RynnEC、以及机器人上下文协议RynnRCP,推动数据、模型和机器人的兼容适配,打通具身智能开发全流程。

RynnVLA-001是达摩院自主研发的基于视频生成和人体轨迹预训练的视觉-语言-动作模型,能从第一人称视角的视频中学习人类的操作技能,隐式迁移到机器人手臂的操控上,从而让机械臂操控更加连贯平滑,更接近于人类动作。

世界理解模型RynnEC将多模态大语言模型引入具身世界,赋予大模型理解物理世界的能力,能从位置、功能、数量等11个维度全面解析场景中的物体,并在复杂的室内环境中精准定位和分割目标物体。无需3D模型,该模型仅靠视频序列就能建立连续的空间感知,还支持灵活交互。

RynnRCP是一套完整的机器人服务协议和框架,能打通从传感器数据采集、模型推理到机器人动作执行的完整工作流,帮助用户根据自身场景轻松适配,现已支持Pi0、GR00T N1.5等多款热门模型以及SO-100、SO-101 等多种机械臂。

据了解,达摩院正积极投入具身智能,聚焦于系统和模型研发,与多方共建产业基础设施,包括硬件本体和标准组件适配、数据采集,以及技术社区DAMO开发者矩阵等,希望拓展机器人的产业空间,加速场景落地。达摩院还在上月开源了WorldVLA模型,首次将世界模型与动作模型融合,提升了图像与动作的理解与生成能力,受到业界关注。



分享: