IROS'25 | WHALES:支持多智能体调度的大规模协同感知数据集
自动驾驶之心·2025-08-18 23:32
自动驾驶协同感知技术发展 - 单车自动驾驶系统存在非视距(NLOS)区域感知局限性,遮挡导致的盲区带来安全风险[2] - 协同式驾驶(Cooperative Autonomous Driving)通过车辆间无线通信实现信息共享,显著提升复杂场景安全性[3] - WHALES数据集首次将智能体调度任务纳入协同感知研究,填补大规模多智能体协同环境数据空白[4] WHALES数据集核心创新 - 包含17k帧LiDAR点云、70k张图像和2.01M个3D标注框,平均每场景8.4个协同智能体[14] - 创新性引入覆盖范围自适应的历史调度算法(CAHS),基于历史视角覆盖度动态选择最优协同对象[19] - 采用强化学习专家模型生成高质量轨迹,突破传统规则型CARLA pilot的行为局限性[11] 数据集技术规格与实验验证 - 传感器配置包含64通道LiDAR、四路1080P摄像头及V2X通信设备,支持V2V/V2I协同[8] - 协同3D检测实验中VoxelNeXt模型在100米范围mAP提升81.3%,验证长距感知优势[25][26] - CAHS算法在多智能体调度任务中取得65.3/40.1的mAP评分,超越MASS等基线方法[28] 行业应用价值 - 数据集遵循nuScenes存储格式并扩展协同感知标签,兼容现有技术栈降低研究门槛[13] - 通过优化CARLA模拟器实现线性时间成本增长,单智能体新增仅需160ms[14] - 支持全通信、随机调度等5类算法对比,为商业化协同驾驶系统提供基准框架[19][21]