【深度学习】抗欺骗的鲁棒深度学习集成
【论文标题】 Robust Deep Learning Ensemble against Deception
【作者团队】Wenqi Wei, Ling Liu
【发表时间】2020/9/14
【论文链接】https://arxiv.org/pdf/2009.06589.pdf
【推荐理由】
众所周知,深层神经网络DNN模型容易受到欺骗性输入的影响,这些输入要么是恶意构建的对抗性的,要么是训练数据分布以外的。本文作者认为对于这两种情况的输入都应自动识别出来并对其剪除,将恶意和错误的数据输入造成的有害影响降至最低。基于此本文提出一种输入输出模型验证集成防御方法XEnsemble,它具有三个特性:首先,XEnsemble通过利用不同的数据清理技术来构建不同的输入去噪验证器。其次,XEnsemble开发了一种不一致分布集成学习方法来保护预测模型的输出免受欺骗。第三,XEnsemble提供了一套结合输入验证和输出验证的算法,以保护DNN预测模型不受欺骗性输入的影响。通过评估,XEnsemble对攻击性样本具有较高的防御成功率,对分布外数据输入具有较高的检测成功率,与现有的防御方法相比,具有更好的鲁棒性和可防御性。
图2 XEnsemble防御系统的体系架构
本文的主要贡献如下: • 本文提出的XEnsemble方法是独立于攻击的。它使用多种不同的输入数据清理技术对对抗性输入进行降噪,通过创建多个独立于失败的模型验证器来验证攻击目标模型的输出。 • 本文提出的XEnsemble方法通过最大化可自动修复的对抗性输入和最大化可检测的分布外输入,有效地提高了攻击目标DNN模型的对抗鲁棒性。 • 本文用于自动验证、自动修复和自动检测的XEnsemble算法可以很好地推广到各种攻击方法中,并且可以很容易地在现代神经网络结构上实现。使用11种常见的对抗性攻击和两种具有代表性的分布外数据集进行评估,与现有的代表性防御技术相比,XEnsemble方法可以有效地增强DNN模型在对抗性样本中的高攻击预防成功率PSR和分布外输入的高攻击检测成功率TSR方面的鲁棒性。值得注意的是,在XEnsemble的保护下,DNN模型可以在没有攻击的情况下进一步提高其预测精度。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢