Vulnerability Handling of AI-Generated Code -- Existing Solutions and Open Challenges

2024年08月16日
  • 简介
    随着现代软件工程中生成式人工智能(AI)的使用越来越多,特别是用于代码生成的大型语言模型(LLMs),已经通过提高生产力和自动化开发流程改变了专业软件开发。然而,这种采用也凸显出一个重要问题:安全漏洞的引入。这些漏洞是由于训练数据中的缺陷而传播到生成的代码中,从而在披露它们时产生挑战。传统的漏洞处理流程通常涉及广泛的手动审查。将这种传统流程应用于AI生成的代码是具有挑战性的。AI生成的代码可能包含多个漏洞,可能以稍微不同的形式存在,因为开发人员可能不会建立在已经实现的代码之上,而是提示类似的任务。在这项工作中,我们探讨了基于LLM的漏洞处理方法的当前状态,重点关注漏洞检测、定位和修复方法。我们提供了这一领域最近进展的概述,并强调必须解决的开放性挑战,以建立可靠且可扩展的AI生成代码漏洞处理流程。
  • 图表
  • 解决问题
    解决问题:论文探讨了基于大型语言模型的代码生成在软件开发中的应用,如何检测、定位和修复由于训练数据缺陷导致的安全漏洞问题。
  • 关键思路
    关键思路:论文提出了基于大型语言模型的漏洞检测、定位和修复方法,并进行了实证研究。
  • 其它亮点
    其他亮点:论文通过实验验证了所提出方法的有效性,同时也指出了该领域需要进一步研究的问题,如如何解决训练数据的缺陷问题,以及如何提高漏洞修复的效率等。
  • 相关研究
    相关研究:最近的相关研究包括《DeepAPI》、《Code2Vec》、《CodeBERT》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论