Towards Robust Federated Learning via Logits Calibration on Non-IID Data

2024年03月05日
  • 简介
    本文介绍了联邦学习(FL)作为一种隐私保护的分布式管理框架,基于边缘网络中分布式设备的协作模型训练。然而,最近的研究表明,FL容易受到对抗样本(AEs)的攻击,导致其性能显著下降。同时,边缘设备之间数据分布的非独立同分布(non-IID)挑战也会进一步降低模型的性能。因此,AEs和non-IID都对在边缘部署强大的学习模型提出了挑战。本文采用对抗训练(AT)框架,提出了一种称为联邦对抗训练(FAT)的方法,以提高FL模型对抗AE攻击的鲁棒性。此外,我们在FAT框架下实施了一个简单而有效的logits校准策略,以解决non-IID挑战,增强模型对抗攻击的鲁棒性。具体而言,我们采用直接的策略来调整训练期间输出的logits,通过给样本较少的类分配更高的权重来有效解决训练数据中的类别不平衡问题,以达到减轻局部模型和全局模型之间偏差的目的。在MNIST、Fashion-MNIST和CIFAR-10三个数据集基准上的实验结果表明,我们的策略在自然和鲁棒准确性方面与多个基线方法相比取得了竞争性的结果。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决联邦学习在面对对抗性样本和非独立同分布数据时的鲁棒性问题。
  • 关键思路
    论文采用对抗性训练框架来提高联邦学习模型对抗性样本的鲁棒性,同时通过简单而有效的对数输出校准策略来解决非独立同分布数据的挑战。
  • 其它亮点
    论文的实验结果表明,该策略可以有效地提高模型的鲁棒性,同时在自然和对抗性准确性方面取得了有竞争力的结果。使用的数据集包括MNIST、Fashion-MNIST和CIFAR-10。论文提供了开源代码。
  • 相关研究
    最近的相关研究包括“Federated Learning with Non-IID Data: A Semi-Supervised Approach”和“Federated Learning with Differential Privacy: Strategies for Improving Robustness”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问