- 简介联邦学习受益于交叉训练策略,使模型能够在来自不同来源的数据上进行训练,以提高泛化能力。然而,不同来源之间的数据异质性可能会导致模型在进行交叉训练以适应新任务或数据来源时逐渐忘记先前获得的知识。我们认为,将个性化和全局知识集成以从多个角度收集信息可能会潜在地提高性能。为了实现这一目标,本文提出了一种新方法,通过融合多视角信息增强联邦学习的交叉训练方案。具体而言,所提出的方法称为FedCT,包括三个主要模块。其中,一致性感知知识广播模块旨在优化模型分配策略,增强客户之间的协作优势,并实现高效的联邦学习过程。多视角知识引导表示学习模块利用来自全局和局部视图的融合原型知识,以增强模型交换前后本地知识的保留,并确保本地和全局知识之间的一致性。基于混合的特征增强模块聚合丰富信息,进一步增加特征空间的多样性,使模型能够更好地区分复杂的样本。在四个数据集上进行了广泛的实验,包括性能比较、削减研究、深入分析和案例研究。结果表明,FedCT从本地和全局视角缓解了知识遗忘,使其优于现有的方法。
- 图表
- 解决问题本文旨在通过跨培训策略,结合个性化和全局知识,提高联邦学习的性能,以解决数据异质性导致的知识遗忘问题。
- 关键思路本文提出了一种名为FedCT的新方法,通过三个模块实现跨培训和多视图信息的融合,包括一致性感知知识广播模块、多视图知识引导表示学习模块和基于混合的特征增强模块。
- 其它亮点本文在四个数据集上进行了广泛的实验,结果表明FedCT可以减轻本地和全局视角下的知识遗忘问题,并且表现优于现有的联邦学习方法。
- 近期的相关研究包括《Federated Learning with Matched Averaging》、《Federated Learning with Heterogeneous Data》等。
沙发等你来抢
去评论
评论
沙发等你来抢