- 简介许多机器学习模型容易受到对抗性攻击的影响,其中基于决策的黑盒攻击在实际应用中是最严重的威胁。这些攻击非常隐蔽,使用从目标机器学习模型获得的硬标签生成对抗性示例。这通常是通过优化扰动方向来实现的,这些方向是由通过查询密集的精确搜索确定的决策边界指导的,从而极大地限制了攻击成功率。本文介绍了一种新方法,使用近似决策边界(ADB)来有效准确地比较扰动方向,而无需精确定位决策边界。我们的ADB方法(ADBA)的有效性取决于及时识别出适合的ADB,确保可靠地区分所有扰动方向。为此,我们分析了决策边界的概率分布,确认使用分布的中位数作为ADB可以有效地区分不同的扰动方向,从而引发了ADBA-md算法的开发。ADBA-md平均只需要四个查询就可以区分任何一对扰动方向,高度查询效率。对六个知名的图像分类器进行的大量实验清楚地证明了ADBA和ADBA-md在多个最先进的黑盒攻击方面的优越性。源代码可在https://github.com/BUPTAIOC/ADBA上获得。
-
- 图表
- 解决问题本篇论文旨在解决决策黑盒攻击对机器学习模型的威胁问题。该攻击方法通过精确搜索确定决策边界,然后生成具有硬标签的对抗样本,极大地限制了攻击成功率。本文提出了一种新的方法,使用近似决策边界(ADB)来有效地比较扰动方向,而不需要精确确定决策边界,以提高攻击成功率。
- 关键思路该论文的关键思路是使用ADB来比较扰动方向,而不需要精确确定决策边界,从而提高攻击成功率。ADB的选择取决于决策边界的概率分布,使用分布的中位数值作为ADB可以有效区分不同的扰动方向,从而开发了ADBA-md算法。
- 其它亮点论文通过实验验证了ADBA和ADBA-md算法在六个著名的图像分类器上的优越性,并且比多个最先进的黑盒攻击方法表现更好。该论文提供了开源代码。
- 最近的相关研究包括:1. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer 2. Adversarial Attacks and Defenses in Images, Graphs and Text: A Review 3. A Survey of Adversarial Attack and Defense Techniques in Deep Learning
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流