Workflow
UniBYD
icon
搜索文档
UniBYD:超越人类示教模仿的跨实体机器人操作学习统一框架
具身智能之心· 2025-12-16 00:02
点击下方 卡片 ,关注" 具身智能 之心 "公众号 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 研究背景与核心问题 在嵌入式智能领域,从人类演示中学习机器人操作是主流范式,但人类手部与不同形态机器人手(如2指、3指、5指)之间的 形态差异鸿沟 ,成为技术落地的核心 障碍: UniBYD核心目标是构建一种学习范式:突破单纯的人类动作模仿,让机器人自主发现与自身物理特性匹配的操作策略,实现跨形态机器人手的高效泛化。 核心创新:UniBYD框架设计 UniBYD是一套统一的强化学习框架,通过 统一形态表示、动态强化学习机制、精细模仿引导 三大核心组件,实现从模仿到探索的平滑过渡,最终学到适配机器人 形态的操作策略(figure2)。 作者丨 Tingyu Yuan等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 统一形态表示(UMR):跨形态建模的基础 为解决不同机器人手形态(自由度、手指数量、刚体数量)的建模差异,UMR将动态状态与静态属性统一为固定维度表示: 动态状态处理 :手腕状态固定为 ...