- 简介随着大型模型人工智能时代的到来,具备理解视觉和文本交互的多模态大语言模型(MLLMs)备受关注。人类无法察觉的对抗性样本具有可转移性特征,这意味着一个模型生成的扰动也可能误导另一个不同的模型。增加输入数据的多样性是增强对抗性可转移性的最重要方法之一。这种方法已被证明是在黑盒条件下显著扩大威胁影响的一种方式。研究还表明,MLLMs可以被利用来在白盒情况下生成对抗性样本。然而,这种扰动的对抗可转移性相当有限,无法实现在不同模型之间有效的黑盒攻击。本文提出了基于排版的语义转移攻击(TSTA),灵感来自于:(1)MLLMs倾向于处理语义级别的信息;(2)排版攻击可以有效地分散MLLMs捕捉到的视觉信息。在有害词汇插入和重要信息保护的场景中,我们的TSTA表现出优异的性能。
- 图表
- 解决问题本论文旨在提出一种新的方法,即基于排版的语义转移攻击(TSTA),通过干扰视觉信息,生成可以在不同模型之间进行黑盒攻击的对抗样本。
- 关键思路TSTA方法是通过结合多模态大语言模型(MLLMs)对语义信息的处理能力和排版攻击对视觉信息的干扰能力,实现了对不同模型的黑盒攻击。
- 其它亮点论文的实验结果表明,TSTA方法在有害词汇插入和重要信息保护两个场景下表现优异。此外,论文还探讨了对抗样本的多样性增强对攻击成功率的影响。该论文开源了代码,并使用了多个数据集进行实验。
- 近期在这个领域中,还有一些相关的研究,例如:《Exploring the Limits of Transferable Adversarial Examples》、《Adversarial Examples for Semantic Segmentation and Object Detection》等。
沙发等你来抢
去评论
评论
沙发等你来抢