- 简介软件漏洞对软件系统的安全和完整性构成重大风险。先前的研究提出了一系列使用深度学习或预训练模型进行漏洞检测的方法。然而,除了检测漏洞的发生之外,仍然缺乏对漏洞的详细解释来进行理解。最近,大型语言模型(LLMs)在理解复杂的上下文和内容生成方面展示出了卓越的能力,这为LLMs漏洞的检测和解释带来了机会。在本文中,我们进行了全面的研究,以调查LLMs在检测和解释漏洞方面的能力,并提出了LLMVulExp,一个利用LLMs进行漏洞检测和解释的框架。在漏洞解释的专业微调下,LLMVulExp不仅可以检测代码中漏洞的类型,还可以分析代码上下文以生成这些漏洞的原因、位置和修复建议。我们发现,LLMVulExp可以有效地使LLMs执行漏洞检测(例如,在SeVC数据集上超过90%的F1分数)和解释。我们还探讨了使用高级策略(如CoT)来指导LLMs集中于易受漏洞攻击的代码,并取得了有希望的结果的潜力。
-
- 图表
- 解决问题本论文旨在探究利用大型语言模型(LLMs)检测和解释漏洞的能力,以解决软件漏洞对软件系统安全和完整性带来的风险。同时,该论文尝试填补漏洞解释方面的研究空白。
- 关键思路该论文提出了LLMVulExp框架,利用LLMs进行漏洞检测和解释。通过对漏洞解释的专门微调,LLMVulExp不仅可以检测代码中的漏洞类型,还可以分析代码上下文生成漏洞的原因、位置和修复建议。
- 其它亮点论文设计了实验来验证LLMVulExp的有效性,并使用SeVC数据集进行了测试,取得了超过90%的F1得分。论文还探索了使用Chain-of-Thought(CoT)等先进策略来引导LLMs集中于易受漏洞攻击的代码,并取得了良好的结果。此外,论文还提供了开源代码。
- 最近在这个领域中,也有研究利用深度学习或预训练模型进行漏洞检测。相关的研究包括“DeepJIT: A Deep Learning Framework for Just-In-Time Malware Detection”和“VulDeePecker: A Data-Driven Approach to Predicting Task-Relevant Security Vulnerabilities”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流