Federated Learning Using Coupled Tensor Train Decomposition

2024年03月05日
  • 简介
    本文介绍了耦合张量分解(CTD)在各种应用中可以从多模态数据中提取联合特征。它可用于具有数据机密性的联邦学习网络。联邦CTD通过共享公共特征并保留个体特征来实现数据隐私保护。然而,基于典型多项分解(CPD)的传统CTD方案可能会遭受低计算效率和高通信成本的困扰。受高效张量列车分解的启发,我们提出了一种联合张量列车(CTT)分解用于联邦学习。分布式耦合多维数据被分解为一系列具有共享因子的张量列车。通过这种方式,我们可以提取耦合模式的公共特征,同时保留未耦合模式的不同特征。因此,可以确保跨不同网络节点的信息隐私保护。所提出的CTT方法用于两种基本网络结构,即主从和分散网络。在合成和真实数据集上的实验结果表明,所提出的方案在计算效率和通信轮数方面均优于现有方法。在分类任务中,实验结果显示,基于CTT的联邦学习几乎达到了集中式对应方法的准确性能。
  • 图表
  • 解决问题
    论文旨在解决联邦学习网络中保护数据隐私的问题,提出了一种基于耦合张量分解的联邦学习方法。
  • 关键思路
    论文提出了耦合张量列车分解(CTT)来实现联邦学习网络中的数据隐私保护,将分布式耦合多维数据分解为一系列具有共享因子的张量列车,以提取耦合模式的公共特征,同时保留未耦合模式的不同特征。
  • 其它亮点
    论文在两种基本网络结构(主从和分散式)上实现了CTT方法,并在合成和真实数据集上进行了实验,证明了该方法在计算效率和通信轮数方面的优越性。在分类任务中,实验结果表明,基于CTT的联邦学习几乎可以达到集中式对照组的准确性表现。
  • 相关研究
    最近的相关研究包括基于张量分解的联邦学习方法,如基于CPD的方法,以及其他保护数据隐私的联邦学习方法,如差分隐私和同态加密等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论