- 简介无源域自适应目标检测(SFOD)是一种有前途的策略,可以在不访问源数据的情况下部署经过训练的检测器到新的未标记域,解决了数据隐私和效率方面的重大问题。大多数SFOD方法利用Mean-Teacher(MT)自我训练范例,严重依赖于高置信度伪标签(HPL)。然而,这些HPL通常会忽略小实例,这些实例在域移位时会发生显着的外观变化。此外,由于训练样本的稀缺性,HPL会忽略低置信度的实例,导致偏向于从源域熟悉的实例的自适应。为了解决这个限制,我们在基于Mean-Teacher的SFOD框架中引入了低置信度伪标签蒸馏(LPLD)损失。这种新方法旨在利用区域提议网络(RPN)的提议,这些提议可能包含在陌生域中难以检测的对象。最初,我们使用标准伪标签技术提取HPL,并从RPN生成的提议中挖掘出一组低置信度伪标签(LPL),留下那些与HPL没有重叠的标签。这些LPL通过利用类关系信息进一步改进,并通过减少LPLD损失计算中固有噪声的影响来进行细化。此外,我们使用特征距离来自适应地加权LPLD损失,以便集中关注包含较大前景区域的LPL。我们的方法在四个跨域目标检测基准上优于以前的SFOD方法。广泛的实验表明,我们的LPLD损失通过减少误报和促进源模型中的域不变知识的使用来实现有效的自适应。代码可在https://github.com/junia3/LPLD获得。
-
- 图表
- 解决问题该论文旨在解决在没有访问源数据的情况下,将训练好的检测器部署到新的未标记域的问题,通过引入Low-confidence Pseudo Label Distillation (LPLD)损失函数来解决当前Mean-Teacher (MT)自我训练范式下的高置信度伪标签(HPL)的局限性。
- 关键思路该论文提出了一种新的方法,利用区域建议网络(RPN)生成的提议来挖掘低置信度伪标签(LPL),并通过LPLD损失函数进行进一步的精炼,以更好地适应新的未标记域。
- 其它亮点该论文的实验结果表明,LPLD损失函数可以有效地提高检测器的适应性,减少误报,提高检测效果。此外,该论文提供了开源代码,并在四个跨域目标检测基准测试中取得了优异的性能表现。
- 在最近的相关研究中,也有一些关于无源域自适应目标检测的论文,如《Domain Adaptive Faster R-CNN for Object Detection in the Wild》和《Adversarial Open Domain Adaption for Semantic Segmentation》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流