- 简介Federated Learning(FL)是一种分布式学习范例,用户通过与服务器交换FL模型而不是原始数据集来保护数据隐私并减少通信开销。然而,由于用户数量增加,FL在无线网络上的大规模完成可能会受到高延迟的影响。基于无小区的大规模多输入多输出(CFmMIMO)是实现FL的一种有前途的架构,因为它可以在相同的时频资源上为许多用户提供服务。虽然CFmMIMO通过空间复用和协作波束成形提高了能源效率,但仍然需要精心分配每个用户的上行传输功率。本文提出了一种在CFmMIMO上的FL上行功率分配方案,考虑到每个用户的功率对其他用户的能量和延迟的影响,共同最小化用户的上行能量和FL训练的延迟。所提出的解决方案算法基于坐标梯度下降法。数值结果表明,我们提出的方法在FL在CFmMIMO上有限的上行能量和延迟预算下,以测试准确性为指标,比著名的最大和速率方法提高了高达27%,比Dinkelbach方法的最大最小能量效率提高了高达21%。
- 图表
- 解决问题本论文旨在解决使用联邦学习在无线网络中进行大规模机器学习时,由于用户数量增加而导致的高延迟问题。论文提出了一种基于CFmMIMO的上行功率分配方案,旨在共同最小化用户的上行能量和FL训练的延迟。
- 关键思路本论文的关键思路是使用CFmMIMO架构实现FL,并考虑每个用户功率对其他用户的能量和延迟的影响,通过协调梯度下降法来分配上行传输功率。
- 其它亮点本论文的亮点在于提出了基于CFmMIMO的上行功率分配方案,以最小化用户的上行能量和FL训练的延迟。同时,论文还展示了该方法在测试准确性方面的表现比已知的max-sum rate和Dinkelbach方法的max-min能效提高了27%和21%。论文的实验基于开源数据集,并提供了代码。
- 近年来,关于联邦学习在无线网络中的研究逐渐增多。相关的研究包括:《Federated Learning over Wireless Networks: Optimization Model Design and Analysis》、《Wireless Federated Learning with Edge Computing: A Review》等。
沙发等你来抢
去评论
评论
沙发等你来抢