论文标题:Self-Supervised Pretraining of 3D Features on any Point-Cloud 论文链接:https://arxiv.org/abs/2101.02691 代码链接:https://github.com/facebookresearch/DepthContrast 代码刚刚开源!作者单位:Facebook, UT-Austin 本文提出了一种用于3D数据的自监督预训练方法,其可以处理由各种传感器获取的任何3D数据-室内或室外的单视图或多视图,而无需3D配准!可极大提高3D目标检测、语义分割等任务性能。

在大型标签数据集进行预训练是在许多计算机视觉任务(如2D目标识别,视频分类等)中取得良好性能的前提。但是,对于最先进的方法从头开始训练模型的3D识别任务,预训练并未广泛使用。主要原因是缺少大型带注释的数据集,因为3D数据既难于采集又费时费力。我们提出了一种简单的自监督相关方法,该方法可以处理由各种传感器获取的任何3D数据-室内或室外的单视图或多视图,而无需3D配准。我们预训练了基于标准点云和体素的模型架构,并表明联合预训练进一步提高了性能。我们在9个基准上评估我们的模型,以进行目标检测,语义分割和对象分类,这些模型可以达到最新的结果,并且可以胜过有监督的预训练。我们为ScanNet(69.0%mAP)和SUNRGBD(63.5%mAP)上的目标检测设置了最新的技术。我们的训练有素的模型可以有效地提高标签效率,并通过少量示例提高课程的表现。

内容中包含的图片若涉及版权问题,请及时与我们联系删除