Fake or Compromised? Making Sense of Malicious Clients in Federated Learning

2024年03月10日
  • 简介
    联邦学习(FL)是一种分布式机器学习范例,可以在分散的数据上训练模型。FL安全领域中的污染攻击问题因存在各种假设和不同的对手模型而导致混乱。我们的工作旨在通过对文献中提出的各种污染攻击和防御聚合规则(AGRs)进行全面分析,并将它们连接到一个通用框架下来澄清这种混乱。为了连接现有的对手模型,我们提出了一个混合对手模型,它处于对手的光谱中间位置,对手会感染少数客户端,使用这些感染样本训练生成模型(例如DDPM),并生成新的合成数据以解决更强的(例如更便宜、更实用)攻击,以对抗不同的稳健聚合规则。通过呈现FL对手的光谱,我们旨在为从业者和研究人员提供对他们在设计FL系统时需要考虑的不同威胁类型的清晰理解,并确定需要进一步研究的领域。
  • 图表
  • 解决问题
    本论文旨在澄清联邦学习中的毒化攻击和防御聚合规则的混乱,提出一个全面的分析框架,连接现有的对手模型,并为从业者和研究人员提供清晰的威胁类型和需要考虑的领域。
  • 关键思路
    本论文提出了一个混合对手模型,连接了现有的对手模型,并提供了一种更强的攻击方法,即生成新的合成数据,以对抗不同的聚合规则。
  • 其它亮点
    论文介绍了联邦学习中的毒化攻击和防御聚合规则,提出了一个新的混合对手模型,连接了现有的对手模型,为从业者和研究人员提供了清晰的威胁类型和需要考虑的领域。实验使用了不同的数据集,包括MNIST、CIFAR-10和EMNIST,通过比较不同的聚合规则和对手模型的表现,验证了提出的框架的有效性。
  • 相关研究
    在联邦学习安全方面的相关研究包括“Federated Learning with Byzantine Robust Aggregation: Theory and Practice”、“Federated Learning: Strategies for Improving Communication Efficiency”和“Communication-Efficient Learning of Deep Networks from Decentralized Data”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论