- 简介研究表明,深度神经网络(DNN)存在漏洞,可能会导致特定设计扰动的对抗性示例(AEs)被错误识别。各种对抗性攻击方法已被提出,以在缺乏损失梯度和置信度分数的情况下,在硬标签黑盒(HL-BB)条件下检测漏洞。然而,这些方法只能搜索搜索空间的局部区域,因此属于局部解。因此,本研究提出了一种名为EvolBA的对抗性攻击方法,使用协方差矩阵自适应进化策略(CMA-ES)在HL-BB条件下生成AEs,其中仅可用目标DNN模型预测的类标签。受公式驱动的监督学习启发,所提出的方法引入了领域无关的运算符以进行初始化过程,并引入了增强搜索探索的跳跃。实验结果证实,所提出的方法可以确定AEs,其扰动比先前方法在先前方法难以处理的图像中小。
- 图表
- 解决问题本论文旨在解决深度神经网络(DNNs)在特定设计扰动下可能导致对对抗性样本(AEs)的错误识别问题,提出了一种名为EvolBA的对抗性攻击方法,使用协方差矩阵自适应进化策略(CMA-ES)在仅有目标DNN模型预测的类标签的情况下,生成AEs。
- 关键思路EvolBA方法引入了领域无关的运算符,包括初始化过程和增强搜索探索的跳跃,以生成AEs。与以往方法相比,EvolBA方法能够在搜索空间中搜索更广泛的区域,从而找到更小的扰动。
- 其它亮点实验结果表明,EvolBA方法能够在HL-BB条件下确定比以前方法更小的扰动的AEs,同时还提供了详细的实验设计和数据集信息。本论文的方法对于提高DNNs的鲁棒性具有重要意义,值得进一步研究。
- 在最近的相关研究中,还有一些使用进化算法生成对抗性样本的方法,如Differential Evolution和Genetic Algorithm。
沙发等你来抢
去评论
评论
沙发等你来抢