Automated Label Unification for Multi-Dataset Semantic Segmentation with GNNs

2024年07月15日
  • 简介
    深度监督模型拥有吸收大量训练数据的显著能力,因此通过在多个数据集上进行训练来提高模型性能的机会。然而,由于数据集之间存在不同的标签空间而产生的冲突可能会对模型性能产生不利影响。在本文中,我们提出了一种使用图神经网络自动构建跨多个数据集的统一标签空间的新方法。这使得语义分割模型可以同时在多个数据集上进行训练,从而提高性能。与现有方法不同,我们的方法促进了无缝训练,无需额外的手动重新注释或分类和解决。这显著提高了多数据集分割模型训练的效率和效果。结果表明,当同时在七个数据集上进行训练时,我们的方法明显优于其他多数据集训练方法,并在WildDash 2基准测试中实现了最先进的性能。
  • 作者讲解
  • 图表
  • 解决问题
    如何在多个数据集上训练语义分割模型时,解决不同数据集之间标签空间不一致的问题?
  • 关键思路
    使用图神经网络自动构建多个数据集之间的统一标签空间,从而实现在多个数据集上同时训练语义分割模型,提高模型性能。
  • 其它亮点
    论文提出的方法能够在不需要手动重新注释或分类调和的情况下,实现多个数据集之间的无缝训练,大大提高了多数据集分割模型训练的效率和效果。实验结果表明,该方法在同时训练七个数据集时,明显优于其他多数据集训练方法,并在WildDash 2基准测试中取得了最优结果。
  • 相关研究
    此领域的相关研究主要集中在多任务学习和迁移学习方面。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问