复旦最新BezierGS:贝塞尔曲线实现驾驶场景重建SOTA(ICCV'25)
自动驾驶之心·2025-07-23 09:56

核心技术突破 - 提出BezierGS方法,利用可学习的贝塞尔曲线显式建模动态目标的运动轨迹和速度,自动校准位姿误差[5][9] - 引入分组曲线间一致性损失,增强动态高斯基元的时间和几何一致性[9][28] - 通过对动态目标渲染的额外监督,实现场景元素的合理和准确分离与重建[9][29] 性能优势 - 在Waymo数据集上新视角合成PSNR达31.51 dB,较最优基线提升1.87 dB,SSIM提升0.014,LPIPS降低8.00%[37][38] - 在nuPlan基准上PSNR达29.42 dB,较最优基线提升3.04 dB,SSIM提升0.036,LPIPS降低16.35%[37][42] - 动态区域保真度Dyn-PSNR在Waymo和nuPlan上分别达28.51 dB和25.12 dB,显著优于现有方法[37][38][42] 行业应用价值 - 高质量动态城市场景重建为自动驾驶闭环仿真提供真实可控环境,支持感知、预测和规划任务[6][8] - 减少对bounding box精确标注的依赖,解决现有数据集标注不精确问题[7][13] - 构建高质量街景世界可降低数据采集成本,为自驾模型训练提供仿真环境[7][8] 技术比较 - 优于依赖手动标注动态目标位姿的方法(如Street Gaussians、OmniRe),避免标注误差限制[5][13] - 超越自监督学习方法(如S3Gaussian、PVG),提供更显式和合理的轨迹表示[8][13][46] - 基于高效3D高斯渲染技术,在保持高渲染速度的同时实现优越渲染质量[11][21]