DCFL: Non-IID awareness Data Condensation aided Federated Learning

2023年12月21日
  • 简介
    联邦学习是一种去中心化的学习范式,其中中央服务器通过利用拥有一定量私有数据的客户端来迭代地训练全局模型。挑战在于客户端私有数据可能不是相同且独立分布的,这会显著影响全局模型的准确性。现有方法通常通过优化、客户端选择和数据补充来解决非独立同分布的问题。然而,由于隐私限制,大多数方法往往忽略了私有数据本身的角度。直观地说,客户端私有数据之间的统计差异可以帮助减轻非独立同分布的程度。此外,数据集压缩技术的最新进展启发我们探索其在解决非独立同分布问题并保持隐私方面的潜在适用性。受此启发,我们提出了DCFL,该方法使用居中核对齐(CKA)方法将客户端分成组,然后使用具有非独立同分布意识的数据集压缩方法完成客户端。同一组内客户端的私有数据是互补的,其压缩数据可供该组内所有客户端使用。此外,还采用了CKA引导的客户端选择策略、过滤机制和数据增强技术,以有效且精确地利用压缩数据,提高模型性能并最小化通信时间。实验结果表明,DCFL在流行的联邦学习基准测试中,包括MNIST、FashionMNIST、SVHN和CIFAR-10,均可使用现有的联邦学习协议达到竞争性能。
  • 图表
  • 解决问题
    解决非独立同分布数据挑战的联邦学习方法
  • 关键思路
    使用数据压缩技术和CKA方法来解决非独立同分布数据问题
  • 其它亮点
    DCFL方法在MNIST、FashionMNIST、SVHN和CIFAR-10数据集上表现出色,使用了数据增强和筛选机制,并且开源了代码
  • 相关研究
    最近的相关研究包括FedAvg、FedProx和FedNova等方法
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论