3D渲染与重建技术
搜索文档
9篇NeurIPS工作,我们读出了「3D渲染与重建」的三个确定方向
自动驾驶之心· 2025-10-19 23:32
文章核心观点 - 2025年NeurIPS会议在3D渲染与重建领域释放出明确的产业风向,研究重点从单点模型性能提升转向系统层面的范式变革[2] - 技术发展正从“能做出Demo”迈向“真能上线用”的拐点,重点关注动态场景重建、3D高斯泼溅(3DGS)工程化、生成式与可编辑3D三大方向[4][18][60] - 评价标准升级,不再只看清晰度或分数,更看重时延、带宽、能耗、稳定性、可编辑性以及对下游任务的实际帮助[60] 动态场景与时序重建 - 研究目标从重建静态几何转向表达、压缩和实时渲染时间维度的变化(4D),让3D世界“动”起来[2][4] - ReCon-GS方法通过连续体高斯流实现在线重建与实时渲染,训练效率提升约15%,在同等画质下内存减半[3][5] - ProDyG方法将SLAM思路引入动态重建闭环,实现跟踪-建图-渲染一体化,新视角质量接近离线方法,相机跟踪达到动态SLAM级别[8][9][10] - 针对4DGS数据点数庞大、存储传输瓶颈的问题,有研究实现了最高91倍的压缩比且保持高保真度,显著提升边缘设备与在线分发的友好性[14][15][18] 3D高斯泼溅(3DGS)的结构革新 - 研究重点是将3DGS从“能渲染得快”升级为“可部署、可维护”,解决大场景显存占用、移动端适配、几何精度和语义稳定性问题[20][21] - LODGE方法通过分层细节(LOD)技术,按相机距离自适应选择高斯子集,在室外与室内基准上实现高质量、更低延迟与更低内存占用的实时渲染[22][23][26] - Gaussian Herding across Pens方法从最优传输视角进行全局高斯“瘦身”,在仅保留约10%高斯的情况下,PSNR/SSIM/LPIPS指标近乎无损,优于现有压缩方法[27][28][33] - VA-GS通过视图对齐增强几何一致性,引入边缘感知渲染损失、可见性感知的跨视光度对齐以及法线约束,实现表面重建与新视角合成的双向提升[30][31][34] - FHGS提出通用特征融合架构,将CLIP/SAM等2D语义稳健映射到3D,使3D语义呈各向同性分布,为语义建图、风格化与交互打下基础[36][37][43] 生成式与可编辑3D - 研究目标从“还原世界”升级为“创造+操作”,使3D资产从静态模型变为可编辑、可复用的生产资料,支持生成新资产、拆分部件、上骨骼、做动画、改材质等操作[42][45] - PhysX-3D构建首个物理标注的3D数据集,涵盖绝对尺度、材质、可供性、运动学、功能描述五个维度,生成的资产在物理属性预测上更合理,保持几何质量[46][52] - PartCrafter实现从单张图像同时去噪出多个语义部件的3D网格,生成可拆解、可重排的多部件网格,对遮挡部件也能合理补全,天然适配参数化编辑与装配变体[48][49][53] - KaRF基于弱监督的Kolmogorov-Arnold Networks构建辐射场框架,实现三维场景任意区域的高保真色彩编辑,边界更准确、多视一致性更好,降低了人工成本[55][57][59]