Introducing 'Inside' Out of Distribution

2024年07月05日
  • 简介
    在机器学习中,检测和理解样本的分布情况对于确保模型的可靠性至关重要。目前的OOD研究通常集中在外推性OOD(超出分布范围),而忽略了内插性OOD(分布范围内)。本研究提出了一种新的OOD视角,认为OOD可以分为内部和外部两种情况。此外,根据这一框架,我们研究了数据集的内部-外部OOD特征及其对机器学习模型性能的影响。我们的分析表明,不同的内部-外部OOD特征会导致机器学习模型性能的微妙下降,强调了区分这两种情况以开发有效的反OOD方法的重要性。
  • 图表
  • 解决问题
    本论文旨在解决机器学习中的out-of-distribution(OOD)问题,提出了将OOD分为内插和外推两种情况的新视角,并探讨了数据集的内插-外推OOD特征对机器学习模型性能的影响。
  • 关键思路
    本论文的关键思路是将OOD问题分为内插和外推两种情况,并对它们的影响进行深入研究,以便开发出更有效的解决方案。
  • 其它亮点
    该论文对多个数据集进行了实验,发现不同的内插-外推OOD特征会导致机器学习模型性能下降的程度不同,这强调了区分这两种情况对于开发有效的反OOD方法的重要性。此外,该论文提供了一些开放源代码,以便其他研究人员可以重现和扩展这项工作。
  • 相关研究
    在这个领域中的相关研究包括:1.基于深度神经网络的OOD检测方法;2.使用生成对抗网络(GAN)的OOD检测方法;3.使用统计方法的OOD检测方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论