- 简介为了检测分布变化并提高模型的安全性,许多分布外(OOD)检测方法依赖于在分布内数据上训练的监督模型的预测不确定性和特征。本文中,我们对这一广泛使用的 OOD 检测方法进行了批判性重新审视,并指出这些方法本质上是在回答 OOD 检测中的错误问题。这种目标错位无法通过简单的修正解决,因为仅在分布内类别上训练的分类器无法识别分布外样本;例如,一个区分猫和狗的分类器可能会将飞机误分类,只要飞机包含区分猫狗的某些特征,即使整体看起来完全不同。我们发现,基于不确定性的方法错误地将高不确定性等同于分布外样本,而基于特征的方法则错误地将特征空间中的远距离等同于分布外样本。我们展示了这些缺陷如何导致 OOD 检测中出现无法消除的误差,并指出了这些方法常失效的典型场景。此外,一些改进 OOD 检测的手段,如特征-逻辑混合方法、扩大模型和数据规模、表征认知不确定性以及引入异常值暴露等,也无法解决这个根本性的目标错位问题。我们还探讨了用于 OOD 检测的无监督密度估计和生成模型,结果表明它们同样存在固有的局限性。
- 图表
- 解决问题论文试图解决的是当前主流的分布外(Out-of-Distribution, OOD)检测方法是否真正有效的问题。作者质疑这些方法是否在回答错误的问题,并指出它们在面对分布外样本时存在根本性的误判,例如分类器可能对与训练数据无关但具有相似特征的样本产生高置信度的错误预测。
- 关键思路论文的核心观点是:仅基于监督学习模型的预测不确定性和特征空间距离的传统OOD检测方法存在根本性缺陷。不确定性方法错误地将高不确定性等同于OOD样本,而特征空间方法则错误地将远离训练数据的特征点视为OOD样本。这些方法无法准确识别真正的分布外样本,因为模型本身并未被训练去识别这些未知类别。
- 其它亮点{作者通过理论分析和实验验证了传统OOD检测方法中的系统性错误,揭示了其不可修复的缺陷。,实验设计涵盖了多个经典OOD检测任务和数据集(如CIFAR、ImageNet等),展示了现有方法在特定场景下的失效情况。,论文还评估了多种改进策略(如特征-逻辑混合方法、模型扩展、引入认知不确定性、异常样本暴露等),发现它们也无法从根本上解决目标错位的问题。,此外,论文讨论了无监督密度估计和生成模型在OOD检测中的局限性,进一步强调了该领域面临的挑战。,未来值得探索的方向包括:如何设计能够主动识别分布外样本的学习框架,或结合外部知识进行OOD判断的新范式。}
- {"Deep Residual Learning for Image Recognition (He et al., 2016)","A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks (Hendrycks & Gimpel, 2017)","Energy-based Out-of-distribution Detection (Liu et al., 2020)","Uncertainty Estimation in Deep Learning (Gal & Ghahramani, 2016)","Generative Ensembles for Robust Out-of-Distribution Detection (Balaji et al., 2020)","Outlier Exposure: Training with(out) a Security Blanket (Hendrycks et al., 2019)"}
沙发等你来抢
去评论
评论
沙发等你来抢