文章核心观点 - 南开大学等研究团队提出了一种名为WorldSplat的全新前馈式4D驾驶场景生成框架,该框架旨在破解场景生成与重建之间的困境,能够高效生成高保真、时空一致的多轨迹新视角驾驶视频,以支持自动驾驶系统的训练数据扩展 [3][8] 技术背景与现有方法局限 - 现有驾驶场景生成方法大多聚焦于合成多样化、高保真的驾驶视频,但受限于3D一致性不足且视角覆盖稀疏,难以支持便捷且高质量的新视角合成 [3] - 近期的3D/4D重建类方法虽大幅改进了真实驾驶场景的新视角合成效果,但本质上缺乏生成能力 [3] WorldSplat框架概述 - WorldSplat是一个结合生成与重建能力的4D驾驶场景生成框架 [8] - 该方法通过两个关键步骤高效生成具备一致性的多轨迹视频 [3] - 第一步是引入融合多模态信息的4D感知潜在扩散模型,以前馈方式生成像素对齐的4D高斯分布 [3] - 第二步是利用增强型视频扩散模型,对基于这些高斯分布渲染出的新视角视频进行优化 [3] - 该框架可一次性生成多视角、时间空间一致的动态驾驶场景,并支持任意轨迹的新视角视频合成 [8] 技术优势与实验效果 - 在基准数据集上开展的大量实验表明,WorldSplat能够有效生成高保真、时空一致的多轨迹新视角驾驶视频 [3] - 该技术让世界模型具备几何一致性,并实现可控的多视角/多轨迹驾驶场景生成 [10] 相关活动与资源 - 文章预告了由WorldSplat第一作者、南开大学博士生朱子悦主讲的直播,直播时间为11月19日19:30-20:30 [4][8] - 相关论文标题为“WorldSplat: Gaussian-Centric Feed-Forward 4D Scene Generation for Autonomous Driving”,并提供了论文链接与项目主页 [5]
AI Day直播 | WorldSplat:用于自动驾驶的高斯中心前馈4D场景生成
自动驾驶之心·2025-11-19 00:03