DeVAIC: A Tool for Security Assessment of AI-generated Code

2024年04月11日
  • 简介
    这篇文章介绍了一种名为DeVAIC(检测AI生成代码的漏洞)的工具,用于评估AI生成的Python代码的安全性。由于AI代码生成器在大型数据集上进行训练,包括潜在的不可信源代码,因此引发了安全问题。此外,这些生成器可能会产生不完整的代码片段,这些片段很难使用当前的解决方案进行评估。作者采用了一种方法学的方法,包括收集易受攻击的样本、提取实现模式和创建正则表达式来开发所提出的工具。DeVAIC的实现包括一组基于正则表达式的检测规则,涵盖了35个常见弱点枚举(CWE),属于OWASP十大漏洞类别之一。作者使用了四种流行的AI模型生成Python代码,然后将其用作评估工具有效性的基础。结果显示,DeVAIC相对于现有的解决方案,在检测安全漏洞方面具有显著的差异,F1得分和准确度均为94%,平均每个代码片段的计算成本低至0.14秒。总之,所提出的工具提供了一种轻量级和高效的解决方案,即使对于不完整的代码也可以进行漏洞检测。
  • 图表
  • 解决问题
    论文旨在解决使用AI代码生成器产生的代码中的安全漏洞检测问题,尤其是在处理不完整的代码片段时的挑战。
  • 关键思路
    论文提出了一种基于正则表达式的轻量级工具DeVAIC,用于检测AI生成的Python代码中的安全漏洞,并针对35个常见弱点枚举(CWE)制定了一组检测规则。
  • 其它亮点
    论文使用了四个流行的AI模型生成Python代码,然后使用DeVAIC工具来评估其安全性。结果表明,DeVAIC在检测安全漏洞方面具有显著优势,F1得分和准确率均为94%,平均每个代码片段的计算成本仅为0.14秒。
  • 相关研究
    在相关研究方面,最近的研究集中在使用AI生成代码的安全性方面,例如“使用神经网络生成的代码中的安全漏洞检测”和“使用深度学习检测代码中的安全漏洞”。
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论