文章链接:https://arxiv.org/abs/2011.04406

经典的机器学习隐含地假设训练数据的标签是从一个干净的分布中采样,这对于真实世界的场景来说可能太有限制性了。然而,基于统计学习的方法可能不能在这些嘈杂的标签下稳健地训练深度学习模型。因此,设计标签-噪声表示学习(Label-Noise Representation Learning, LNRL)方法对具有噪声标签的深度模型进行鲁棒训练迫在眉睫。为了充分了解LNRL,我们进行了一项调研研究。我们首先从机器学习的角度阐明了LNRL的形式化定义。然后,通过学习理论和实证研究的视角,我们找出了为什么嘈杂标签会影响深度模型的性能。在理论指导的基础上,我们将不同的LNRL方法分为三个方向。在这个统一的分类下,我们对不同类别的利弊进行了全面的讨论。更重要的是,我们总结了鲁棒LNRL的基本组成部分,可以激发新的方向。最后,我们提出了LNRL可能的研究方向,如新数据集、依赖实例的LNRL和对抗LNRL。我们还展望了LNRL以外的潜在方向,如特征噪声学习、偏好噪声学习、域噪声学习、相似噪声学习、图噪声学习和演示噪声学习。

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除