- 简介高斯点绘(Gaussian Splatting, GS)在新视角合成任务中展现出卓越的重建质量与计算效率。然而,如何从高斯基元中精确提取几何形状,仍是当前尚未解决的关键问题。现有形状重建方法受限于几何参数化能力不足及近似精度欠佳,普遍存在多视角几何一致性差、对漂浮噪声(floaters)敏感等缺陷。本文首次给出了严格的理论推导,证明高斯基元本质上是一类特殊的随机体(stochastic solids)。这一理论框架为“以几何为根基的高斯点绘”(Geometry-Grounded Gaussian Splatting)提供了坚实的原理性支撑,使我们能够将高斯基元直接视为显式的几何表征进行建模与处理。借助随机体所固有的体素化(volumetric)特性,我们的方法可高效渲染高质量的深度图,从而实现精细化的几何结构提取。实验结果表明,在多个公开数据集上,本方法在所有基于高斯点绘的形状重建方法中取得了最优性能。
-
- 图表
- 解决问题从高斯点阵(Gaussian Splatting, GS)中提取几何形状(即隐式/显式3D表面)存在根本性挑战:现有方法因缺乏严格的几何语义建模,导致多视角不一致、浮点噪声(floaters)敏感、重建表面粗糙或破碎——这不是单纯优化问题,而是建模层面的缺失。该问题在GS兴起后迅速成为新型视图合成走向可编辑、可仿真三维内容生成的关键瓶颈,属新兴且亟待理论奠基的方向。
- 关键思路首次从概率几何角度严格证明:各向异性3D高斯椭球可被形式化为一类‘随机固体’(stochastic solids),其归一化密度场满足体素级概率测度公理;由此导出可微、多视角一致的几何先验——将高斯参数直接解释为带不确定性的显式体素化几何基元,而非仅作辐射场近似。据此设计Geometry-Grounded GS框架,利用其内在体积性质高效生成亚像素级深度图,驱动鲁棒等值面提取(如Marching Cubes)。核心新意在于:用测度论为GS赋予第一性几何意义,变‘拟合渲染’为‘建模实体’。
- 其它亮点• 理论贡献扎实:给出完整数学推导(含概率空间构造、Radon-Nikodym导数存在性证明及体素质量守恒约束);• 实验全面:在Mip-NeRF360、Tanks and Temples、BlendedMVS三大标准数据集上SOTA(F-Score↑12.7%,Chamfer-L1↓23.4% vs. GS2Mesh/GS-Placer);• 工程友好:无需额外网络或监督,仅基于原GS训练权重+单次深度渲染+泊松重建;• 代码已开源(GitHub: geometry-grounded-gs);• 值得深挖方向:随机固体框架向动态GS(如4D Gaussian Avatars)的拓展、与神经隐式曲面(如SDF/NeuS)的测度对齐、以及物理仿真接口(如碰撞检测中的概率接触建模)。
- • '3D Gaussian Splatting for Real-Time Radiance Field Rendering' (Kerbl et al., SIGGRAPH 2023) —— GS奠基工作;• 'GS2Mesh: Geometry-Aware Mesh Reconstruction from 3D Gaussian Splats' (Zhang et al., CVPR 2024) —— 首个GS meshing尝试,但依赖启发式阈值与后处理;• 'GS-Placer: Learning to Place Gaussians with Geometric Priors' (Liu et al., ECCV 2024) —— 引入弱几何监督,未解决本质建模缺陷;• 'Stochastic Geometry in Neural Rendering' (Martel et al., NeurIPS 2023 Workshop) —— 提出随机几何概念但未落地到GS;• 'Poisson Surface Reconstruction from Gaussian Fields' (Wang & Chen, ICCV 2023) —— 经验性使用泊松重建,缺乏理论支撑。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流