Risks of Practicing Large Language Models in Smart Grid: Threat Modeling and Validation

2024年05月10日
  • 简介
    大型语言模型(LLM)是人工智能(AI)领域的重大突破,对于智能电网的应用具有相当的潜力。然而,正如以前的文献所证明的,AI技术容易受到各种类型的攻击。在将它们部署在智能电网等关键基础设施之前,必须调查和评估与LLMs相关的风险。在本文中,我们系统地评估了LLMs的漏洞,并确定了两种与智能电网LLM应用相关的主要攻击类型,并提出相应的威胁模型。然后,我们使用流行的LLMs利用真实的智能电网数据验证了这些攻击。我们的验证表明,攻击者能够向LLMs注入错误数据,并从智能电网场景中使用的LLMs中检索领域知识。
  • 作者讲解
  • 图表
  • 解决问题
    系统评估LLMs的安全漏洞,特别是在智能电网应用中的两种攻击类型,以及相应的威胁模型。
  • 关键思路
    通过实验验证,证明攻击者可以在LLMs中注入错误数据并从中检索领域知识。
  • 其它亮点
    论文系统评估了LLMs的安全漏洞,并提出了智能电网应用中的两种攻击类型和威胁模型。实验使用真实的智能电网数据验证了这些攻击,证明了攻击者可以注入错误数据并从LLMs中检索领域知识。
  • 相关研究
    在最近的相关研究中,一些学者研究了利用AI技术进行攻击的方法,例如对抗性样本、欺骗性攻击等。相关论文包括“Adversarial Machine Learning: Attacks and Defenses”和“Deep Learning-Based Malware Detection on Mobile Devices”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问