Stable Diffusion-based Data Augmentation for Federated Learning with Non-IID Data

2024年05月13日
  • 简介
    边缘设备的普及将联邦学习(FL)作为一种有前途的范例推向了前台,FL可以在保护客户数据隐私的同时进行分散和协作模型训练。然而,当参与客户之间存在非独立同分布(Non-IID)的数据分布时,FL面临着显著的性能降低和收敛困难。虽然以前的努力,如客户漂移缓解和先进的服务器端模型融合技术,在解决这一挑战方面取得了一定的成功,但它们经常忽视性能降低的根本原因——缺乏准确反映客户之间全局数据分布的相同数据。在本文中,我们介绍了Gen-FedSD,这是一种新颖的方法,利用最先进的文本到图像基础模型的强大能力,以弥合FL中显著的Non-IID性能差距。在Gen-FedSD中,每个客户为每个类标签构建文本提示,并利用现成的最先进的预训练稳定扩散模型来合成高质量的数据样本。生成的合成数据针对每个客户的独特本地数据空白和分布差异进行了定制,有效地使最终增强的本地数据IID。通过广泛的实验,我们证明了Gen-FedSD在各种数据集和Non-IID设置中实现了最先进的性能和显着的通信成本节约。
  • 图表
  • 解决问题
    解决非独立同分布数据分布下,联邦学习(FL)中性能下降和收敛困难的问题。
  • 关键思路
    通过使用最先进的文本到图像基础模型,提出了一种新的方法Gen-FedSD,利用生成的合成数据样本来填补每个客户端独特的本地数据差距和分布差异,从而使最终增强的本地数据独立同分布(IID),以达到提高FL性能的目的。
  • 其它亮点
    论文通过广泛的实验,展示了Gen-FedSD在各种数据集和非独立同分布设置下实现了最先进的性能和显著的通信成本节省。此外,论文还介绍了客户端漂移缓解和先进的服务器端模型融合技术等相关工作。
  • 相关研究
    最近在该领域中的相关研究包括:《Federated Learning with Non-IID Data: A Semi-Supervised Perspective》、《Federated Learning with Matched Averaging》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论