- 简介最近,基于学习的等值面提取方法已成为公理技术的强大而有效的替代方案。然而,绝大多数这类方法依赖于基于公理计算的监督训练,因此可能会继承相应公理方法的偏见和数据伪影。为了避免这种依赖性,我们提出了一种自我监督训练方案,用于神经双轮廓网格化框架,从而得到了我们的方法:自我监督双轮廓(SDC)。我们不是使用监督训练来优化预测网格顶点,而是使用两个新的自我监督损失函数,鼓励生成网格的距离一阶连续。SDC重建的网格在捕捉复杂细节方面优于现有的数据驱动方法,同时对输入可能的不规则性更加稳健。此外,我们使用相同的自我监督训练目标来链接推断的网格和输入SDF,以规范深度隐式网络(DINs)的训练过程。我们证明了由此产生的DINs产生更高质量的隐式函数,最终与不同的输入模态相比,导致更准确和保留细节的表面。最后,我们证明了我们的自我监督损失通过使预测的SDF和输出网格的联合训练成为可能,提高了单视图重建任务的网格化性能。我们在https://github.com/Sentient07/SDC上开源了我们的代码。
- 图表
- 解决问题论文旨在解决无监督学习等领域中,由于依赖于公理方法计算的基本事实,导致学习基于等值面的方法时可能会继承公理方法的偏见和数据伪影的问题。
- 关键思路论文提出了一种自我监督的训练方案,用于神经双轮廓网格化框架的训练,称为自我监督双轮廓(SDC)。
- 其它亮点论文使用两种新型的自我监督损失函数,鼓励生成的网格到第一阶段的距离一致性,从而在捕捉细节方面优于现有数据驱动方法,并且更具鲁棒性。此外,作者还使用了相同的自我监督训练目标,将推断的网格和输入SDF的训练过程规范化到Deep Implicit Networks(DINs)中,从而提高了隐式函数的质量。作者还展示了自我监督损失如何在单视角重建任务中提高网格化性能,通过使预测的SDF和输出网格的联合训练。
- 最近,关于基于等值面提取的学习方法已经涌现出许多研究,但大多数方法都依赖于公理方法计算的基本事实的监督训练,因此可能会继承公理方法的偏见和数据伪影。
沙发等你来抢
去评论
评论
沙发等你来抢