武汉大学李晨亮:受计算机视觉中针对深度神经模型生成对抗性样本方法的启发,近年来出现了针对自然语言处理应用的对抗样本生成方法。然而,图像和文本之间的内在差异给直接将计算机视觉中的攻击方法应用于自然语言处理带来了挑战。 近两年,解决这种差异并攻击各种自然语言处理应用的方法出现并获得关注。在本文中,我们对这些方法进行了系统的调查。我们收集了自该研究方向2017年首次亮相以来所有相关的学术著作。我们选择,总结,讨论和分析了40个有代表性的研究工作。 此外,为了使文章自成一体,我们涵盖了自然语言处理的初步知识并讨论了计算机视觉中的相关开创性工作。我们进一步讨论了攻击自然语言处理深度模型的一些开放性问题,以弥合该研究方向的现有进展与与更强大的对抗攻击之间的差距。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢