达摩院开源具身智能“三大件”:RynnVLA-7B、RynnEC、RynnRCP 一次到位

2025 年 8 月 11 日,北京/浙江——在世界机器人大会现场,阿里达摩院一次性开源三大核心组件,为具身智能开发者送上“开箱即用全家桶”:
视觉-语言-动作大模型 RynnVLA-001-7B
世界理解模型 RynnEC
机器人上下文协议 RynnRCP(业内首次开源)
为什么要用 RynnRCP?
传统流程中,传感器、模型、机器人本体各自为政,移植一次脱层皮。达摩院把 MCP(Model Context Protocol)思想引入机器人领域,推出 RynnRCP:
统一接口:一套协议兼容 Pi0、GR00T N1.5 等热门模型和 SO-100、SO-101 等主流机械臂。
实时控制:RobotMotion 模块把离散推理指令转成高频连续信号,动作更平滑,延迟更低。
零门槛上手:内置仿真-真机同步、数据采集回放、轨迹可视化,策略迁移只需改两行配置。
两大模型能力一览
| 模型 | 核心能力 | 亮点指标 |
|---|---|---|
| RynnVLA-001-7B | 第一人称视频→人类动作→机器臂轨迹 | 抓取成功率 +4%,动作更类人化 |
| RynnEC | 11 维场景解析、无 3D 模型定位分割 | 复杂室内环境零样本识别 |
开源地址(全部 Apache-2.0 协议)
RynnVLA-001:github.com/alibaba-damo-academy/RynnVLA-001
3 分钟跑通 Demo
# 安装协议栈 pip install rynnrpc # 连接 SO-100 机械臂 rcp connect --arm so100 --model RynnVLA-001 # 启动仿真 rcp sim --scene office
达摩院「具身工坊」持续更新
更多教程、数据集与实战案例已同步上线达摩院开发者矩阵,搜索「具身工坊」即可直达。
未来已来,机器人开发不再“从零造轮子”。
-
喜欢(0)
-
不喜欢(0)

