- 简介近年来,关键基础设施遭受恶意软件攻击的情况越来越多,需要进一步研究和开发适当的应对和修复策略来检测和分类恶意软件。一些工作已经使用机器学习模型将恶意软件分类为不同的类别,而深度神经网络已经显示出了很好的结果。然而,这些模型已经显示出其对有意制造的对抗性攻击的易受攻击性,这会导致恶意文件的误分类。本文探讨了神经网络恶意软件分类系统在动态和在线分析环境中的对抗性漏洞。为了评估我们的方法,我们训练了前馈神经网络(FFNN)来根据从动态和在线分析环境中获取的特征对恶意软件类别进行分类。我们使用最先进的方法,SHapley Additive exPlanations(SHAP),对恶意软件分类的特征进行归因,以通知有关分类决策的重要特征的对抗攻击者。利用可解释性的特征,我们使用快速梯度符号方法(FGSM)和投影梯度下降(PGD)攻击针对训练分类器的有针对性的误分类对抗白盒攻击。我们的结果表明,在某些攻击实例中,逃避率很高,显示出恶意软件分类器的明显漏洞。我们提供了一个平衡方法的建议,并为对抗恶意软件分类器的逃避攻击进行了迫切需要的未来研究的基准,以开发更强大和可信赖的解决方案。
- 图表
- 解决问题本文试图解决神经网络恶意软件分类器面临的对抗攻击漏洞问题,探索其对动态和在线分析环境下的影响。
- 关键思路本文使用 SHAP 方法进行特征归因,以确定分类决策的重要特征,并使用这些特征进行有针对性的误分类对抗攻击,展示了分类器在某些情况下的高攻击逃避率。
- 其它亮点本文的实验使用了 Feed Forward Neural Networks 进行恶意软件分类,使用 SHAP 方法进行特征归因,使用 Fast Gradient Sign Method 和 Projected Gradient Descent 进行对抗攻击。研究结果表明,分类器存在对抗攻击漏洞,需要更加健壮和可信赖的解决方案。
- 最近的相关研究包括:1. "Adversarial Examples in the Physical World";2. "Explaining Explanations: An Overview of Interpretability of Machine Learning";3. "A Survey of Methods for Explaining Black Box Models"。
沙发等你来抢
去评论
评论
沙发等你来抢