- 简介高斯散射辐射场渲染方法最近成为了一种准确场景表示的高效途径。该方法优化了一组三维高斯元素的位置、大小、颜色和形状,使其在投影或散射后能够视觉上匹配一组从不同视角拍摄的给定图像。尽管高斯元素非常接近形状边界,但直接对场景中的物体进行表面重建仍然是一个挑战。我们提出了一种新的方法,用于从高斯散射模型中进行表面重建。我们不依赖于高斯元素的位置作为表面重建的先验,而是利用3DGS卓越的新视角合成能力。为此,我们使用高斯散射模型来渲染成对的立体校准新视角,然后使用立体匹配方法提取深度剖面。我们将提取的RGB-D图像组合成几何一致的表面。与其他高斯散射模型表面重建方法相比,所得到的重建结果更加准确,显示出更细致的细节,同时需要的计算时间也显著少于其他表面重建方法。我们在智能手机拍摄的野外场景上对该方法进行了广泛的测试,展示了其卓越的重建能力。此外,我们还在Tanks and Temples基准测试中对该方法进行了测试,它已经超过了目前领先的高斯散射模型表面重建方法。项目页面:https://gs2mesh.github.io/。
- 图表
- 解决问题论文提出了一种从高斯点云模型进行表面重建的方法,以提高表面重建的精度和效率。
- 关键思路论文的关键思路是利用高斯点云模型进行渲染,提取深度信息,然后将RGB-D图像组合成几何一致的表面重建。
- 其它亮点论文在多个数据集上进行了广泛的测试,并展示了其方法的优越性能。此外,论文提供了开源代码,并建立了一个项目页面。
- 在这个领域中,最近的相关研究包括:《DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation》、《Learning to Reconstruct 3D Manhattan Wireframes from a Single Image》等。
沙发等你来抢
去评论
评论
沙发等你来抢