- 简介现有的提示学习方法在Out-of-Distribution(OOD)检测方面表现出一定的能力,但是它们在训练过程中目标数据集中缺乏OOD图像,可能导致OOD图像与In-Distribution(ID)类别之间存在不匹配,从而导致高误报率。为了解决这个问题,我们引入了一种新的OOD检测方法,名为“NegPrompt”,用于学习一组负面提示,每个提示都代表给定类别标签的负面内涵,以区分ID和OOD图像之间的边界。它仅使用ID数据学习这样的负面提示,而不依赖于外部离群数据。此外,当前的方法假定所有ID类别的样本均可用,这使它们在开放词汇学习场景中无效,在这种情况下,推理阶段可能包含未在训练期间出现的新ID类别。相比之下,我们学习的负面提示是可转移的,适用于新的类别标签。在各种ImageNet基准测试中的实验表明,NegPrompt超越了基于提示学习的OOD检测方法的最新水平,并在闭合和开放词汇分类情况下保持了一致的领先地位。代码可在https://github.com/mala-lab/negprompt找到。
-
- 图表
- 解决问题本文旨在解决Out-of-Distribution (OOD)检测中的误检问题,通过学习一组负面提示来区分ID和OOD图像。同时,还解决了传统方法在开放词汇学习场景中的无法处理新类别的问题。
- 关键思路本文提出了一种名为'NegPrompt'的新型OOD检测方法,通过仅使用ID数据学习一组负面提示来区分ID和OOD图像,并且这些负面提示可以迁移到新的类别标签上。
- 其它亮点本文的实验结果表明,NegPrompt在闭合和开放词汇分类场景中的难度OOD检测方面优于目前最先进的基于提示学习的OOD检测方法,并且保持了一致的领先优势。此外,本文提供了开源代码。
- 最近在这个领域中,还有一些相关研究,如'Mahalanobis ODIN'和'ODIN'。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流