文章核心观点 - 北京大学与BeingBeyond研究团队提出的DemoHLM框架,通过分层控制架构与单次演示数据生成技术,有效解决了人形机器人移动操作领域数据成本高、任务泛化差和仿真到现实迁移难的核心痛点 [1][6][20] 技术框架与核心创新 - DemoHLM采用“低层全身控制器+高层操作策略”的分层设计,解耦运动控制与任务决策,低层控制器运行频率50Hz保证全身运动稳定性,高层策略运行频率10Hz侧重长时域规划 [7][12] - 框架关键突破在于仅需1次仿真环境中的人类演示即可自动生成海量训练数据,通过预操作阶段(物体中心坐标系)、操作阶段(本体感知坐标系)和批量合成三步流程,生成数百至数千条成功轨迹 [8] - 技术兼容性强,支持ACT、Diffusion Policy等多种行为克隆算法,在仿真与真实机器人上均表现优异 [14] 实验性能与数据表现 - 仿真实验中,随着合成数据量从100条增至5000条,任务成功率显著提升,例如“PushCube”成功率从52.4%升至89.3%,“OpenCabinet”从18.9%升至67.3% [11] - 在真实Unitree G1机器人上实现零样本迁移,10项任务中“LiftBox”和“PressCube”实现5/5全成功率,“PushCube”和“Handover”达到4/5成功率,复杂任务如“GraspCube”和“OpenCabinet”成功率超60% [16][18] 行业应用价值 - 技术将训练成本从“数百小时真实遥操作”降至“小时级仿真演示”,大幅降低人形机器人在家庭、工业、服务等复杂场景的落地门槛 [17] - 框架无需任务特定设计,1套方案适配多场景,为下一代人形机器人的规模化应用提供重要技术路径,并具备兼容触觉传感器、多相机感知等升级的潜力 [20][23]
北大等团队用“分层小脑+仿真分身”让G1零样本上岗
具身智能之心·2025-11-14 16:03