From LLMs to MLLMs: Exploring the Landscape of Multimodal Jailbreaking

2024年06月21日
  • 简介
    这篇文章全面概述了针对大型语言模型(LLMs)和多模态大型语言模型(MLLMs)的越狱研究,重点介绍了评估基准、攻击技术和防御策略方面的最新进展,同时揭示了这些模型在各种对抗性攻击中的脆弱性。与单模态越狱相比,多模态领域仍未得到充分探索。本文总结了多模态越狱的局限性和潜在研究方向,旨在激发未来的研究,进一步增强MLLMs的鲁棒性和安全性。
  • 图表
  • 解决问题
    本论文旨在提供针对大型语言模型(LLMs)和多模态大型语言模型(MLLMs)的越狱研究的综合概述,强调评估基准、攻击技术和防御策略的最新进展。相比单模态越狱的更先进的状态,多模态领域仍未得到充分的开发。
  • 关键思路
    本论文提供了针对LLMs和MLLMs的越狱技术和防御策略,重点关注多模态领域的研究局限性和潜在研究方向,以启发未来的研究并进一步提高MLLMs的鲁棒性和安全性。
  • 其它亮点
    本论文提供了LLMs和MLLMs越狱技术和防御策略的综合概述,重点关注多模态领域的研究局限性和潜在研究方向。实验包括使用哪些数据集和开源代码。
  • 相关研究
    最近的相关研究包括《Adversarial Attacks and Defenses in Images, Graphs and Text: A Review》、《Adversarial Attacks and Defenses in Deep Learning》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论