Explainable Deep Learning Models for Dynamic and Online Malware Classification

2024年04月18日
  • 简介
    近年来,恶意软件攻击数量显著增加,需要更先进的预防措施和补救策略。虽然已经存在多种成功的基于人工智能的恶意软件分类方法,包括静态、动态或在线分析,但大多数成功的人工智能模型缺乏易于解释的决策和过程说明。我们的论文旨在深入探讨可解释的恶意软件分类在各种执行环境(如动态和在线)中的应用,全面分析它们的优点、缺点和共性。为了评估我们的方法,我们使用可解释性工具SHAP、LIME和Permutation Importance来对基于动态和在线分析环境获得的特征进行恶意软件分类的前馈神经网络(FFNN)和卷积神经网络(CNN)进行训练。我们对实验中计算得出的全局和局部解释进行了详细评估,讨论了其中的局限性,并最终提出了实现平衡方法的建议。
  • 图表
  • 解决问题
    本论文旨在解决恶意软件分类中缺乏易于解释的决策和解释过程的问题,并对各种执行环境(如动态和在线)进行解释性恶意软件分类的全面分析。
  • 关键思路
    论文使用 SHAP、LIME 和 Permutation Importance 等解释性工具对基于动态和在线分析环境获取的特征进行恶意软件分类的特征归因,以实现解释性恶意软件分类。
  • 其它亮点
    论文进行了详细的实验评估,并讨论了计算出的全局和局部解释的限制,提出了实现平衡方法的建议。
  • 相关研究
    最近的相关研究包括使用静态、动态或在线分析进行基于人工智能的恶意软件分类的方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论