- 简介在数据分布不独立和同分布(Non-IID)的联邦学习(FL)参与者的异构场景中,FL遭受数据异构的问题,导致FL的性能显著下降,因为全局模型往往难以收敛。为了解决这个问题,我们提出了差分隐私综合数据辅助联邦学习使用基础模型(DPSDA-FL),这是一种新的数据增强策略,有助于使客户端的本地数据同质化。DPSDA-FL通过利用从基础模型生成的差分隐私综合数据来改善本地模型的训练。我们在基准图像数据集CIFAR-10上评估了我们的方法的有效性。我们的实验结果表明,在存在Non-IID问题的FL中,DPSDA-FL可以将全局模型的类召回率和分类准确度分别提高高达26%和9%。
- 图表
- 解决问题本论文旨在解决在异构场景下的联邦学习(FL)中,由于数据分布不独立且不同(Non-IID)而导致的数据异质性问题,该问题会导致全局模型难以收敛的问题。
- 关键思路本文提出了一种名为DPSDA-FL的新型数据增强策略,该策略利用基础模型生成差分隐私合成数据,从而有助于使客户端本地数据同质化,从而改善本地模型的训练。
- 其它亮点本文在CIFAR-10数据集上进行了实验,结果表明,DPSDA-FL可以提高FL中全局模型的类召回率和分类准确率,分别提高了26%和9%。本文的亮点包括使用差分隐私合成数据进行数据增强,从而解决了数据异质性问题。实验结果表明,DPSDA-FL可以显著提高FL的性能。
- 在最近的研究中,一些相关的研究包括:'Federated Learning with Non-IID Data: A Semi-Supervised Perspective','Federated Learning on Non-IID Data Silos: An Experimental Study'等。
沙发等你来抢
去评论
评论
沙发等你来抢