Evaluating the Robustness of Deep-Learning Algorithm-Selection Models by Evolving Adversarial Instances

2024年06月24日
  • 简介
    深度神经网络(DNN)越来越多地被用于在组合优化领域中执行算法选择,特别是因为它们可以适应避免设计和计算特征的输入表示。来自使用图像作为输入的领域的证据表明,深度卷积网络容易受到对抗样本的攻击,即对实例进行微小扰动就会导致DNN错误分类。然而,目前尚不清楚最近在装箱领域中作为算法选择器表现出潜力的深度递归网络(DRN)是否同样容易受到攻击。我们使用进化算法(EA)来寻找对来自两个现有在线装箱基准的实例进行微小扰动的方法,以使经过训练的DRN错误分类:从原始实例成功生成对抗样本,具体取决于数据集,最高可达到56%。分析新的错误分类实例揭示了某些训练实例的“脆弱性”,即可以轻松找到微小扰动导致错误分类的实例,以及影响这种情况的因素。最后,该方法生成了大量新的实例,其错误分类的置信度差异很大,为创建更健壮的模型提供了丰富的新的训练数据来源。
  • 图表
  • 解决问题
    本论文旨在研究深度循环神经网络(DRN)在组合优化领域中的算法选择问题中是否存在对抗样本的漏洞。
  • 关键思路
    通过使用进化算法(EA)来生成对DRN具有误导性的对抗样本,以评估DRN的鲁棒性,并分析训练集中易受攻击的实例的特征和因素。
  • 其它亮点
    论文使用了进化算法来生成对抗样本,并发现DRN在在线装箱数据集中存在高达56%的易受攻击的实例。此外,论文还提供了大量新的被错误分类的实例,为创建更加鲁棒的模型提供了丰富的新的训练数据。
  • 相关研究
    最近的相关研究包括使用深度卷积网络的对抗样本攻击和DRN在组合优化问题中的应用。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论