- 简介Graph Prompt Learning(GPL)通过缓解实际图形学习中的知识转移瓶颈,弥合了预训练和下游应用之间的显著差异。虽然GPL在图形知识转移和计算效率方面具有优越性,但预训练模型中嵌入的后门污染效应带来的安全风险仍然很大程度上没有被探索。我们的研究全面分析了GPL对后门攻击的脆弱性。我们引入了CrossBA,这是针对GPL的第一个跨上下文的后门攻击,它仅操作预训练阶段而不需要了解下游应用的知识。我们的研究从理论和实证角度揭示了,通过调整触发图和提示转换,可以无缝地将后门威胁从预训练编码器转移到下游应用中。通过对3种代表性GPL方法在5个不同的跨上下文场景和5个节点和图分类任务的基准数据集中进行大量实验,我们证明了CrossBA在保留干净输入下游应用的功能的同时,始终实现了高攻击成功率。我们还探讨了对抗CrossBA的潜在对策,并得出结论,目前的防御措施不足以缓解CrossBA。我们的研究凸显了GPL系统持续存在的后门威胁,引发了GPL技术实践的信任问题。
- 图表
- 解决问题分析Graph Prompt Learning(GPL)系统中的后门攻击风险
- 关键思路提出了一种新的跨上下文的后门攻击方法(CrossBA),通过调整触发图和提示变换,可以将后门威胁从预训练编码器无缝地转移到下游应用程序中。
- 其它亮点使用3种典型的GPL方法,5个不同的跨上下文场景和5个基准数据集,展示了CrossBA攻击的高攻击成功率,同时保留了干净输入下游应用程序的功能。
- 最近的相关研究包括《图神经网络后门攻击:现状与挑战》、《后门攻击与防御:综述》等。
沙发等你来抢
去评论
评论
沙发等你来抢