Personalized Federated Learning via Stacking

2024年04月16日
  • 简介
    传统的联邦学习方法通常在不交换原始数据的情况下协作地训练单个全局模型。相比之下,个性化联邦学习技术旨在创建多个更适合于个别客户数据的模型。我们提出了一种基于堆叠泛化的个性化方法,其中客户端直接发送彼此隐私保护模型作为基本模型,在私有数据上训练元模型。我们的方法是灵活的,适应各种隐私保护技术和模型类型,并可应用于水平、混合和垂直分区联邦。此外,它提供了一种自然机制来评估每个客户对联邦的贡献。通过在不同的模拟数据异质性场景下进行全面评估,我们展示了我们方法的有效性。
  • 图表
  • 解决问题
    解决问题:本论文旨在提出一种基于堆叠泛化的个性化联邦学习方法,使客户端能够直接发送隐私保护模型以用作基础模型,从而训练私有数据上的元模型,以更好地适应个体客户端的数据。
  • 关键思路
    关键思路:该论文提出了一种新的个性化联邦学习方法,通过堆叠泛化来生成多个更适合个体客户端数据的模型,同时保护隐私,适用于各种隐私保护技术和模型类型,并可在水平、混合和垂直分区联邦中应用。
  • 其它亮点
    其他亮点:该方法在多种模拟数据异质性场景下进行了全面评估,并展示了其有效性。该论文提供了开源代码,并使用了公开数据集进行实验。此外,该方法还提供了一种自然机制,用于评估每个客户端对联邦的贡献。
  • 相关研究
    相关研究:最近的相关研究包括《Federated Learning with Personalization Layers》、《Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论