- 简介标准的无监督领域自适应(UDA)旨在将有标记的源领域的知识转移到无标记的目标领域,但通常需要同时访问源和目标数据。此外,UDA方法通常假设源域和目标域共享相同的标签空间。然而,在现实场景中,这两个假设很难满足。本文考虑了更具挑战性的无源开放集领域自适应(SF-OSDA)设置,其中放弃了这两个假设。我们提出了一种新的SF-OSDA方法,利用目标专用类别的粒度将它们的样本分成多个未知类别。从基于聚类的初始分配开始,我们的方法通过使用基于不确定性的样本选择模块来改进目标专用样本的分离,并改进它们的伪标签。此外,我们提出了一种新的对比损失,称为NL-InfoNCELoss,将负学习整合到自监督对比学习中,增强了模型对噪声伪标签的鲁棒性。对基准数据集的广泛实验表明,所提出的方法优于现有方法,建立了新的最先进性能。值得注意的是,额外的分析表明,我们的方法能够学习新类别的潜在语义,打开了进行新类别发现的可能性。
-
- 图表
- 解决问题本文尝试解决源自由开放集域适应(SF-OSDA)问题,该问题不需要同时访问源和目标数据,并且假定源和目标领域不共享标签空间。
- 关键思路本文提出了一种新方法,通过将目标专用类别的样本分为多个未知类别,利用目标专用类别的细粒度来分离它们的样本。该方法通过初始基于聚类的分配开始,并利用基于不确定性的样本选择模块来逐步改进目标专用样本的伪标签分离。此外,本文提出了一种名为NL-InfoNCELoss的新型对比损失,将负学习整合到自监督对比学习中,增强模型对噪声伪标签的鲁棒性。
- 其它亮点本文在基准数据集上进行了广泛的实验,证明了所提出方法优于现有方法,建立了新的最先进性能。值得注意的是,额外的分析表明,我们的方法能够学习新类别的潜在语义,为进行新类别发现打开了可能性。
- 最近在该领域中的相关研究包括:Unsupervised Domain Adaptation(UDA),Open Set Domain Adaptation(OSDA)和Domain Generalization(DG)等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流