- 简介为了实现人工智能(AI)的大规模高效部署,AI和边缘计算的结合产生了边缘智能(Edge Intelligence),利用终端设备和边缘服务器的计算和通信能力,将数据处理更靠近生成数据的地方。边缘智能的一个关键技术是隐私保护机器学习范式,称为联邦学习(Federated Learning,FL),它使得数据所有者无需将原始数据传输到第三方服务器即可训练模型。然而,FL网络预计涉及数千个异构分布式设备,因此通信效率仍然是一个关键瓶颈。为了减少节点故障和设备退出,提出了一种分层联邦学习(Hierarchical Federated Learning,HFL)框架,其中指定的集群领导者通过中间模型聚合来支持数据所有者。因此,基于边缘服务器资源利用率的提高,本文可以有效弥补缓存容量的限制。为了减轻软点击对用户体验质量(QoE)的影响,作者将用户QoE建模为综合系统成本。为了解决公式问题,作者提出了一种具有联邦深度强化学习(DRL)和联邦学习(FL)的分散式缓存算法,其中多个代理独立学习和决策。
-
- 图表
- 解决问题论文旨在解决边缘智能中的通信效率问题,提出了一种分层联邦学习框架来减少节点故障和设备退出,同时缓解软点击对用户体验的影响。
- 关键思路通过分层联邦学习框架,利用指定的集群领导者支持数据所有者进行中间模型聚合,从而提高边缘服务器资源利用率。同时,通过联邦深度强化学习和联邦学习的分散式缓存算法来解决软点击对用户体验的影响。
- 其它亮点论文提出了一种分层联邦学习框架来提高边缘智能中的通信效率,同时缓解软点击对用户体验的影响。实验结果表明,该框架可以有效地提高边缘服务器资源利用率,并减少节点故障和设备退出。论文还提出了一种分散式缓存算法,通过联邦深度强化学习和联邦学习来解决软点击对用户体验的影响。
- 近期相关研究包括: 1. 'Federated Learning for Mobile Keyboard Prediction'; 2. 'Federated Learning for Healthcare Informatics'; 3. 'Federated Learning: Strategies for Improving Communication Efficiency'。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流