Are Dense Labels Always Necessary for 3D Object Detection from Point Cloud?

2024年03月05日
  • 简介
    当前最先进的3D物体检测方法通常需要大量的3D边界框注释来进行训练。然而,收集这样大规模的密集监督数据集成本极高。为了减少繁琐的数据注释过程,我们提出了一种新颖的稀疏注释框架,其中我们只注释每个场景中的一个3D物体。这样的稀疏注释策略可以显著减轻注释负担,但不精确和不完整的稀疏监督可能会严重降低检测性能。为了解决这个问题,我们开发了SS3D ++方法,该方法通过统一的学习方案交替改进3D检测器训练和自信的完全注释场景生成。使用稀疏注释作为种子,我们基于设计缺失注释实例挖掘模块和可靠的背景挖掘模块逐步生成自信的完全注释场景。我们提出的方法在与使用相同或更多注释成本的SOTA弱监督方法进行比较时产生了竞争性的结果。此外,与SOTA完全监督方法相比,在KITTI数据集上,我们以大约5倍的注释成本实现了同等甚至更好的性能,在Waymo数据集上,我们以大约15倍的注释成本实现了它们90%的性能。额外的未标记训练场景可以进一步提高性能。代码将在https://github.com/gaocq/SS3D2上提供。
  • 图表
  • 解决问题
    解决问题:如何在减少标注成本的前提下,提高三维物体检测的性能?
  • 关键思路
    关键思路:通过稀疏标注的方式,利用一些种子数据来生成可信的完全标注数据,并在此基础上进行三维物体检测模型的训练。
  • 其它亮点
    亮点:通过提出的SS3D++方法,该论文在KITTI和Waymo数据集上分别以5倍和15倍的标注成本,实现了与SOTA相媲美的性能。同时,该方法还能够利用未标注的数据进一步提高性能。
  • 相关研究
    相关研究:在三维物体检测领域,最近的相关研究包括:Weakly Supervised 3D Object Detection from Lidar Point Cloud和PointRCNN等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论