- 简介本文提出了一种用于在少样本情况下合成新视角的算法。其主要概念是开发一种稳定的表面正则化技术,称为退火有符号距离函数(ASDF),它以粗到细的方式调整表面,以加速收敛速度。我们观察到,广泛使用的几何正则化方法——Eikonal loss需要密集的训练信号来塑造SDF的不同级别集合,从而在少样本训练下产生低保真度的结果。相比之下,所提出的表面正则化成功地重建了场景,并产生了高保真度的几何形状,训练稳定。我们的方法通过利用网格表示和单目几何先验进一步加速。最后,所提出的方法比现有的少样本新视角合成方法快45倍,并在ScanNet数据集和NeRF-Real数据集中产生了可比较的结果。
-
- 图表
- 解决问题本文旨在解决few-shot视角合成问题,即在少量数据的情况下合成新视角。
- 关键思路本文提出了一种稳定的表面正则化技术ASDF,通过粗到细的方式来退火表面,加速收敛速度。该方法成功地重建了场景并产生了高保真度的几何体。
- 其它亮点本文采用了网格表示和单目几何先验来加速方法。实验表明,该方法比现有few-shot新视角合成方法快45倍,并在ScanNet和NeRF-Real数据集中产生了可比较的结果。
- 在这个领域中,最近的相关研究包括:Few-shot View Synthesis, Learning to Synthesize 3D Shapes via Modeling Multi-View Depth Maps and Silhouettes with Deep Generative Networks, DeepVoxels: Learning Persistent 3D Feature Embeddings.
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流