作者:Zheyan Shen, Jiashuo Liu, Yue He, Xingxuan Zhang, Renzhe Xu, Han Yu, Peng Cui
简介:经典的机器学习方法是建立在独立同分布假设的基础上的。然而在真实场景中,独立同分布假设很难得到满足,导致经典机器学习算法在分布偏移下的性能急剧下降,这也表明研究分布外泛化问题的重要性。分布外泛化(Out-of-Distribution Generalization)问题针对测试分布未知且与训练不同的具有挑战性的问题设定。本文首次系统、全面地探讨了分布外泛化问题,从问题的定义、方法、评价到未来发展方向。首先,本文给出了分布外泛化问题的形式化定义;其次,根据现有方法在整个学习流程中的位置,将其分为无监督表示学习、有监督模型学习与优化方法三部分,并详细讨论了每一类中的典型方法;然后,我们展示了不同类别方法间的理论联系,并介绍了常用的数据集和评价指标;最后,对全文文献进行了总结,并对分布外泛化问题提出了未来的研究方向。
论文链接:https://arxiv.org/abs/2108.13624
论文中综述OOD泛化方法文章总结:http://out-of-distribution-generalization.com
推荐理由:本文首先系统、全面地探讨了分布外泛化问题,将不同流派的方法汇集到一起,介绍了其中的典型方法,并分析了之间的理论联系。此外,本文总结了分布外泛化问题常用的数据集与评价指标,对于未来分布外泛化问题的研究具有很强的启发意义。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢