- 简介最近,一种优化的三维高斯点阵表示法被引入,用于从稀疏图像集合中合成新视角的高保真场景重建。使得这种表示法适用于像网络流媒体和低功耗设备上的渲染等应用,需要显著降低内存消耗并提高渲染效率。我们提出了一种压缩的三维高斯点阵表示法,利用敏感度感知的向量聚类和量化感知的训练来压缩方向颜色和高斯参数。所学习的码本具有低比特率,并在实际场景中实现了高达31倍的压缩率,而视觉质量仅有轻微的降低。我们展示了压缩的点阵表示法可以通过硬件光栅化在轻量级GPU上高效地渲染,其帧率比经过优化的GPU计算管道高出4倍。对多个数据集进行的广泛实验证明了所提出方法的鲁棒性和渲染速度。
- 图表
- 解决问题本文旨在提出一种压缩三维高斯斑点表示的方法,以减少内存消耗并提高渲染效率,以解决高保真场景重建在低功耗设备上的应用问题。
- 关键思路本文提出了一种压缩的三维高斯斑点表示方法,利用灵敏度感知向量聚类和量化感知训练来压缩方向颜色和高斯参数,并使用学习后的码本实现了高达31倍的压缩率。
- 其它亮点本文的亮点包括:使用了压缩的三维高斯斑点表示方法,实现了高达31倍的压缩率;使用硬件光栅化实现了高效渲染;在多个数据集上进行了实验,证明了该方法的鲁棒性和渲染速度。
- 最近在该领域中的相关研究包括:《DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation》、《NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis》等。
沙发等你来抢
去评论
评论
沙发等你来抢