- 简介联邦学习是一种有前途的协作模型训练方法,但由于其分散化的特性,容易受到中毒攻击的影响。其中,后门攻击表现出了显著的隐蔽性,因为它们有选择地破坏带有触发器的输入的预测。以独立同分布(IID)数据假设为基础的先前尝试检测和缓解此类攻击,因为良性模型更新在多个特征空间中表现出高度相似性,所以可以检测出异常值作为后门攻击。然而,非IID数据在后门攻击检测方面存在重大挑战,因为数据的多样性会在良性模型之间引入差异,使得基于异常值检测的机制不太有效。我们提出了一种新颖的分布感知异常检测机制BoBa来解决这个问题。为了区分由于数据多样性而产生的异常值与后门攻击,我们提出将问题分解为两个步骤:利用数据分布对客户端进行聚类,然后基于投票进行检测。基于聚类和后续后门检测可以极大地受益于了解客户端数据分布的直觉,我们提出了一种新颖的数据分布推断机制。为了提高检测的鲁棒性,我们引入了重叠聚类方法,其中每个客户端与多个聚类相关联,确保模型更新的可信度由多个聚类共同评估,而不是单个聚类。通过广泛的评估,我们证明了BoBa可以将攻击成功率降低到低于0.001,同时在各种攻击策略和实验设置下保持高的主任务准确性。
- 图表
- 解决问题本论文旨在解决联邦学习中背门攻击检测的问题,特别是针对非独立同分布数据的情况。
- 关键思路论文提出了一种新的分布感知异常检测机制BoBa,通过对客户端进行聚类并基于投票的方式进行检测,以区分数据多样性引起的异常和背门攻击。
- 其它亮点论文通过广泛的实验验证了BoBa的有效性,可以将攻击成功率降低到低于0.001,同时在各种攻击策略和实验设置下保持高主要任务准确性。
- 相关研究包括基于IID数据假设的背门攻击检测,以及其他联邦学习安全性问题的研究。
沙发等你来抢
去评论
评论
沙发等你来抢