PointContrast: Unsupervised Pre-training for 3D Point Cloud Understanding 论文链接:https://arxiv.org/abs/2007.10985 代码链接:https://github.com/facebookresearch/PointContrast

通过无监督的预训练框架PointContrast,在6个不同的基准测试中均获得了最新的结果,并证明了所学的表示形式可以跨领域进行泛化。代码于4个小时前刚刚开源!作者单位:FAIR, 斯坦福大学

可以说,深度学习最成功的范式之一就是迁移学习。一旦在通常较小的目标集上进行微调,就可以在丰富的源集(例如ImageNet)上对网络进行预训练可以帮助提高性能,这一发现对于语言和视觉的许多应用都是有帮助的。然而,对其在3D点云理解中的实用性知之甚少。考虑到3D数据注释所需的工作,我们认为这是一个机会。在这项工作中,我们旨在促进3D表示学习的研究。与以前的作品不同,我们专注于高级场景理解任务。为此,我们选择了一套多样化的数据集和任务来衡量无监督预训练对大型3D场景源的影响。我们的发现非常令人鼓舞:使用统一的三元组架构,源数据集和对比损失进行预训练,我们在针对室内和室外,真实和合成数据集的6个不同基准进行细分和检测的最新最佳结果方面取得了进步-证明学习的表示形式可以跨领域进行泛化。此外,这种改进类似于有监督的预训练,这表明未来的工作应该更倾向于扩展数据收集而不是更详细的注释。我们希望这些发现将鼓励对3D深度学习的无监督pretext任务设计进行更多研究。

内容中包含的图片若涉及版权问题,请及时与我们联系删除