Assessing LLMs in Malicious Code Deobfuscation of Real-world Malware Campaigns

2024年04月30日
  • 简介
    大型语言模型(LLMs)与各种流程的整合日益普及,有效地自动化了许多手动任务,往往超过了人类的能力。网络安全研究人员和从业者已经认识到了这种潜力。因此,他们正在积极探索其应用,考虑到需要处理的大量异构数据,以识别异常、潜在的绕过、攻击和欺诈事件。除此之外,LLMs在生成功能代码、理解代码上下文以及总结其操作方面的先进能力也可以用于逆向工程和恶意软件去混淆。为此,我们深入探讨了最先进的LLMs的去混淆能力。我们不仅仅讨论了假设情景,而且还使用臭名昭著的Emotet恶意软件活动中使用的真实恶意脚本评估了四个LLMs。我们的结果表明,虽然不是绝对准确的,但一些LLMs可以有效地去混淆这样的负载。因此,为这项任务微调LLMs可以成为未来AI动力的威胁情报流程中的一个可行的潜力,以打击混淆的恶意软件。
  • 作者讲解
  • 图表
  • 解决问题
    论文旨在探索大型语言模型(LLMs)在反混淆恶意软件方面的应用,以及评估现有LLMs在此任务中的表现。
  • 关键思路
    通过实验评估四种LLMs在反混淆Emotet恶意软件中的表现,并发现一些LLMs可以有效地反混淆这些恶意软件。因此,对LLMs进行微调可能是未来AI威胁情报管道中的一种可行方法。
  • 其它亮点
    论文使用真实的恶意脚本数据集进行实验评估,并发现一些LLMs可以有效地反混淆这些恶意软件。此外,LLMs的高级能力还可以用于反向工程和恶意软件去混淆。值得进一步研究。
  • 相关研究
    最近的相关研究包括:'DeepDeObfuscator: A Deep Learning Based Deobfuscation Framework for Malware Analysis'、'Malware Deobfuscation using Convolutional Neural Networks'、'Deobfuscation of Android Malware through Deep Learning Techniques'等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~