ADBA:Approximation Decision Boundary Approach for Black-Box Adversarial Attacks

2024年06月07日
  • 简介
    许多机器学习模型容易受到对抗性攻击的影响,其中基于决策的黑盒攻击在实际应用中是最严重的威胁。这些攻击非常隐蔽,使用从目标机器学习模型获得的硬标签生成对抗性示例。这通常是通过优化扰动方向来实现的,这些方向是由通过查询密集的精确搜索确定的决策边界指导的,从而极大地限制了攻击成功率。本文介绍了一种新方法,使用近似决策边界(ADB)来有效准确地比较扰动方向,而无需精确定位决策边界。我们的ADB方法(ADBA)的有效性取决于及时识别出适合的ADB,确保可靠地区分所有扰动方向。为此,我们分析了决策边界的概率分布,确认使用分布的中位数作为ADB可以有效地区分不同的扰动方向,从而引发了ADBA-md算法的开发。ADBA-md平均只需要四个查询就可以区分任何一对扰动方向,高度查询效率。对六个知名的图像分类器进行的大量实验清楚地证明了ADBA和ADBA-md在多个最先进的黑盒攻击方面的优越性。源代码可在https://github.com/BUPTAIOC/ADBA上获得。
  • 作者讲解
  • 图表
  • 解决问题
    本篇论文旨在解决决策黑盒攻击对机器学习模型的威胁问题。该攻击方法通过精确搜索确定决策边界,然后生成具有硬标签的对抗样本,极大地限制了攻击成功率。本文提出了一种新的方法,使用近似决策边界(ADB)来有效地比较扰动方向,而不需要精确确定决策边界,以提高攻击成功率。
  • 关键思路
    该论文的关键思路是使用ADB来比较扰动方向,而不需要精确确定决策边界,从而提高攻击成功率。ADB的选择取决于决策边界的概率分布,使用分布的中位数值作为ADB可以有效区分不同的扰动方向,从而开发了ADBA-md算法。
  • 其它亮点
    论文通过实验验证了ADBA和ADBA-md算法在六个著名的图像分类器上的优越性,并且比多个最先进的黑盒攻击方法表现更好。该论文提供了开源代码。
  • 相关研究
    最近的相关研究包括:1. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer 2. Adversarial Attacks and Defenses in Images, Graphs and Text: A Review 3. A Survey of Adversarial Attack and Defense Techniques in Deep Learning
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问