- 简介近几十年来,视觉界在视觉识别方面取得了显著进展,部分归功于数据集基准的进步。值得注意的是,已建立的COCO基准推动了现代检测和分割系统的发展。然而,COCO分割基准在过去十年中的改进相对较慢。最初,它配备了用于物体实例的粗略多边形注释,并逐渐引入了用于物品区域的粗略超像素注释,随后通过启发式方法合并以产生全景分割注释。这些注释由不同的评定者执行,不仅导致粗略的分割掩模,而且还导致分割类型之间的不一致性。在本研究中,我们对COCO分割注释进行了全面的重新评估。通过提高注释质量并扩展数据集以涵盖383K张图像和超过5.18M个全景掩模,我们引入了COCOnut,即COCO下一代通用分割数据集。 COCONut通过精心制作高质量的掩模,在语义分割,实例分割和全景分割之间协调分割注释,并为所有分割任务建立了强大的基准。据我们所知,COCOnut是首个经人类评定者验证的大规模通用分割数据集。我们预计,COCOnut的发布将显著促进社区评估新型神经网络的进展能力。
-
- 图表
- 解决问题本论文旨在解决COCO分割基准数据集在分割掩模质量和一致性方面存在的问题,提出了一个新的大规模通用分割数据集COCONut。
- 关键思路论文提出了COCONut数据集,通过提高注释质量和扩展数据集规模,实现了对语义、实例和全景分割的一致性注释,建立了一个强大的分割基准数据集。
- 其它亮点COCONut数据集包括383K张图像和超过5.18M个全景掩模,是一个大规模的通用分割数据集。该数据集的注释质量得到了提高,是首个经人工审核的大规模通用分割数据集。该数据集的发布将有助于评估新型神经网络的进展。
- 在相关研究方面,COCO基准数据集一直是该领域的重要数据集之一。此外,还有许多关于分割任务的研究,如Mask R-CNN、DeepLab等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流