- 简介最近大规模基础模型的进展引发了人们对训练高效大视野模型的广泛兴趣。一个普遍的共识是聚合广泛的高质量注释数据的必要性。然而,考虑到计算机视觉中注释密集任务(如物体检测和分割)的固有挑战,一种实用的策略是结合和利用所有可用数据进行训练。在这项工作中,我们提出了Plain-Det,它提供了灵活性以适应新数据集,对不同数据集的性能具有鲁棒性,具有训练效率,并与各种检测架构兼容。我们利用Plain-Det辅助Def-DETR,在COCO数据集上实现了51.9的mAP,与当前最先进的检测器相匹配。我们在13个下游数据集上进行了大量实验,Plain-Det展示了强大的泛化能力。代码已在https://github.com/ChengShiest/Plain-Det发布。
- 图表
- 解决问题论文旨在解决计算机视觉中密集任务(如目标检测和分割)的数据标注难题,提出一种利用所有可用数据进行训练的策略。
- 关键思路Plain-Det是一种灵活的方法,可适应新数据集、在不同数据集上表现稳健、训练效率高、与各种检测架构兼容,能够帮助Def-DETR在COCO上实现51.9的mAP,与当前最先进的检测器相匹配。
- 其它亮点论文在13个下游数据集上进行了大量实验,表现出强大的泛化能力。代码已在GitHub上开源。
- 最近的相关研究包括:DETR、Sparse R-CNN、BlendMask等。
沙发等你来抢
去评论
评论
沙发等你来抢