Workflow
DemoHLM
icon
搜索文档
北大等团队用“分层小脑+仿真分身”让G1零样本上岗
具身智能之心· 2025-11-14 16:03
文章核心观点 - 北京大学与BeingBeyond研究团队提出的DemoHLM框架,通过分层控制架构与单次演示数据生成技术,有效解决了人形机器人移动操作领域数据成本高、任务泛化差和仿真到现实迁移难的核心痛点 [1][6][20] 技术框架与核心创新 - DemoHLM采用“低层全身控制器+高层操作策略”的分层设计,解耦运动控制与任务决策,低层控制器运行频率50Hz保证全身运动稳定性,高层策略运行频率10Hz侧重长时域规划 [7][12] - 框架关键突破在于仅需1次仿真环境中的人类演示即可自动生成海量训练数据,通过预操作阶段(物体中心坐标系)、操作阶段(本体感知坐标系)和批量合成三步流程,生成数百至数千条成功轨迹 [8] - 技术兼容性强,支持ACT、Diffusion Policy等多种行为克隆算法,在仿真与真实机器人上均表现优异 [14] 实验性能与数据表现 - 仿真实验中,随着合成数据量从100条增至5000条,任务成功率显著提升,例如“PushCube”成功率从52.4%升至89.3%,“OpenCabinet”从18.9%升至67.3% [11] - 在真实Unitree G1机器人上实现零样本迁移,10项任务中“LiftBox”和“PressCube”实现5/5全成功率,“PushCube”和“Handover”达到4/5成功率,复杂任务如“GraspCube”和“OpenCabinet”成功率超60% [16][18] 行业应用价值 - 技术将训练成本从“数百小时真实遥操作”降至“小时级仿真演示”,大幅降低人形机器人在家庭、工业、服务等复杂场景的落地门槛 [17] - 框架无需任务特定设计,1套方案适配多场景,为下一代人形机器人的规模化应用提供重要技术路径,并具备兼容触觉传感器、多相机感知等升级的潜力 [20][23]
只演示一次,机器人就会干活了?北大&BeingBeyond联合团队用“分层小脑+仿真分身”让G1零样本上岗
36氪· 2025-11-14 02:36
核心观点 - 研究团队提出DemoHLM框架,通过仅需1次仿真环境中的人类演示即可自动生成海量训练数据,解决了人形机器人移动操作领域依赖硬编码、真实数据成本高、跨场景泛化差的核心痛点 [1] 技术挑战 - 人形机器人移动操作长期受限于数据效率低、任务泛化差以及Sim-to-Real迁移难三大难题 [3][6] - 传统方案或局限于仿真,或需消耗数百小时真实遥操作数据,难以满足复杂场景的实用需求 [3] 框架创新 - DemoHLM采用“分层控制+单演示数据生成”双引擎设计,兼顾全身运动稳定性与极低数据成本下的泛化学习 [7] - 分层控制架构解耦运动控制与任务决策,包含低层全身控制器(运行频率50Hz)和高层操作策略(运行频率10Hz) [8][12] - 单演示数据生成技术可将1次仿真遥操作演示转化为数百至数千条成功轨迹,实现完全自动化的数据生成流程 [9] 实验验证 - 在仿真与真实Unitree G1机器人上对10项移动操作任务进行验证,数据量从100条增至5000条时任务成功率显著提升,例如“PushCube”成功率从52.4%升至89.3%,“OpenCabinet”从18.9%升至67.3% [10][15] - 框架兼容ACT、Diffusion Policy等多种行为克隆算法,在“LiftBox”任务中成功率均超96% [15] - 真实环境中实现零样本迁移,全成功率任务如“LiftBox”达5/5成功,复杂任务如“OpenCabinet”成功率超60% [16] 行业价值 - 将训练成本从“数百小时真实遥操作”降至“小时级仿真演示”,大幅降低行业应用门槛 [22] - 无需任务特定设计,1套框架适配家庭搬运、工业辅助等多场景,加速机器人从实验室到真实环境的落地 [22] - 分层架构为兼容触觉传感器、多相机感知等升级奠定基础,支持未来更复杂场景的应用 [22]