Uncertainty-Aware Pseudo-Label Filtering for Source-Free Unsupervised Domain Adaptation

2024年03月17日
  • 简介
    这篇论文讨论了无源无监督域自适应(SFUDA)的问题,即如何在没有源数据的情况下利用已经训练好的源模型在未标记的目标域中进行应用。自我训练是解决SFUDA的一种方法,其中自信的目标样本被迭代地选择为伪标记样本,以指导目标模型的学习。然而,以往的启发式噪声伪标签过滤方法都涉及引入额外的模型,这些模型对模型假设敏感,可能会引入额外的错误或错误标记。在这项工作中,我们提出了一种名为不确定性感知伪标签过滤自适应(UPA)的方法,以一种粗到精的方式高效地解决这个问题。具体来说,我们首先引入了一个样本选择模块,名为自适应伪标签选择(APS),它负责过滤噪声伪标签。APS利用一种简单的样本不确定性估计方法,通过聚合邻近样本的知识,选择自信的样本作为干净的伪标记。此外,我们还结合了类感知对比学习(CACL),通过伪标签监督学习稳健的成对表示来缓解伪标签噪声的记忆化。通过在三个广泛使用的基准测试上进行的大量实验,我们证明了我们提出的方法取得了与最先进的SFUDA方法相当的竞争性能。代码可在https://github.com/chenxi52/UPA上找到。
  • 作者讲解
  • 图表
  • 解决问题
    论文旨在通过提出一种名为Uncertainty-aware Pseudo-label-filtering Adaptation (UPA)的方法,解决源领域数据不可用的情况下,如何在未标记的目标领域中利用预训练的源模型的问题。
  • 关键思路
    该论文的关键思路是通过自我训练和样本选择模块(Adaptive Pseudo-label Selection)来过滤伪标签噪声,同时利用类别感知对比学习(Class-Aware Contrastive Learning)来学习鲁棒的表示。
  • 其它亮点
    论文通过在三个广泛使用的基准测试数据集上进行大量实验,证明了UPA方法与最先进的SFUDA方法相当。代码已经开源。
  • 相关研究
    在最近的研究中,也有一些相关的工作,例如Self-Training with Progressive Augmentation for Unsupervised Domain Adaptation(SPADA)和Unsupervised Domain Adaptation by Backpropagation(BDL)等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问