Out-of-Distribution Detection Using Peer-Class Generated by Large Language Model

2024年03月20日
  • 简介
    本文讨论了检测机器学习模型在实际应用中部署的可靠性和安全性所必需的一项关键任务——识别分布外(OOD)样本。传统的OOD检测方法仅依赖于单模态信息,往往难以捕捉到OOD样本的丰富多样性。在分布内(ID)数据集中,当输入图像与某个类别(例如狗)具有许多相似之处时,例如狼,模型会将其错误分类,这是OOD检测的主要难点。然而,在语义域中,这些类别可能很容易区分。因此,本文提出了一种名为ODPC的新方法,通过大型语言模型设计特定的提示,生成具有ID语义的OOD对等类别,作为辅助模态来促进检测。此外,还设计了一种基于OOD对等类别的对比损失,用于学习ID类别的紧凑表示,并提高不同类别之间边界的清晰度。在五个基准数据集上进行的广泛实验表明,我们提出的方法可以产生最先进的结果。
  • 图表
  • 解决问题
    本论文旨在解决机器学习模型在实际应用中的可靠性和安全性问题,提出了一种新的方法ODPC来进行out-of-distribution(OOD)检测。
  • 关键思路
    ODPC方法通过大型语言模型生成特定提示来产生与ID语义不同的OOD对等类作为辅助模态,从而解决了传统单模态方法难以捕捉OOD实例多样性的问题。同时,利用OOD对等类设计了对比损失来学习ID类的紧凑表示,提高了不同类别之间的边界清晰度。
  • 其它亮点
    论文在五个基准数据集上进行了大量实验,结果表明ODPC方法可以产生最先进的结果。此外,该论文使用的数据集和开源代码也值得关注。
  • 相关研究
    在这个领域中,最近的相关研究包括DeepSBD、Deep Mahalanobis detectors、ODIN等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论