Mitigating federated learning contribution allocation instability through randomized aggregation

2024年05月13日
  • 简介
    联邦学习(FL)是一种新颖的协作机器学习框架,旨在在保护隐私的同时实现强大的模型创建。这种范式通过允许多个参与者为模型做出贡献,而不暴露他们的个人数据,来应对数据安全日益增长的需求。然而,该框架中一个至关重要的问题涉及公平而准确地归因于各参与者对联合全局模型的创建所做的贡献。错误的贡献分配可能会破坏参与者之间的信任,导致不公平的补偿,并最终减少各方参与或积极贡献于联邦。虽然已经提出了几种报酬参与者的方法,但在评估贡献时这些方法的稳定性却鲜有人关注,而这对于确保FL系统的长期可行性和公正性至关重要。在本文中,我们通过使用Shapley值的基于梯度的模型重构技术计算贡献来分析这种稳定性。我们的研究表明,Shapley值无法反映基线贡献,特别是在使用不同聚合技术时。为了解决这个问题,我们通过引入FedRandom对已有的聚合技术进行了扩展,该技术旨在以更公平和分布式的方式对贡献进行采样。我们证明,这种方法不仅可以作为一种可行的聚合技术,而且与传统方法相比,显著提高了贡献评估的准确性。我们的研究结果表明,FedRandom增强了联邦学习系统的整体公平性和稳定性,使其成为参与者数量有限的联邦的优选选择。
  • 图表
  • 解决问题
    本文试图解决联邦学习中参与者贡献分配不公平的问题,以确保系统的长期稳定性和公平性。
  • 关键思路
    本文通过引入FedRandom方法来解决传统方法中Shapley值无法准确反映参与者贡献的问题,从而提高了贡献评估的准确性和整体公平性。
  • 其它亮点
    本文使用梯度重构技术和Shapley值来计算参与者的贡献,发现Shapley值无法准确反映贡献,因此引入FedRandom方法来提高贡献评估的准确性和公平性。实验结果表明FedRandom方法比传统方法更为准确和公平,可提高联邦学习系统的稳定性和公平性。
  • 相关研究
    近期的相关研究包括:《Federated Learning: Strategies for Improving Communication Efficiency》、《Towards Federated Learning at Scale: System Design》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论