- 简介贝叶斯联邦学习(FL)最近被引入以提供良好校准的机器学习(ML)模型,量化其预测的不确定性。尽管与频率学派FL设置相比具有优势,但在分散式网络上实现的贝叶斯FL工具由于合作设备之间的局部后验分布的迭代交换而面临高通信成本。因此,本文提出了一种通信效率高的分散式贝叶斯FL策略,以减少通信开销而不影响最终的学习准确性和校准性。所提出的方法集成了压缩策略,并允许设备在发送局部后验分布之前执行多个优化步骤。我们将开发的工具集成到工业物联网(IIoT)用例中,在该用例中,配备自主雷达传感器的协作节点的任务是可靠地定位与机器人共享工作场所中的人员。数值结果表明,所开发的方法获得了高度准确且校准良好的ML模型,与传统(未压缩)贝叶斯FL工具兼容,同时大大减少了通信开销(即高达99%)。此外,与压缩频率学派FL设置相比,所提出的方法在校准方面具有优势,特别是当测试数据集的统计分布发生变化时。
- 图表
- 解决问题本文旨在提出一种通信高效的去中心化贝叶斯联邦学习策略,以降低通信开销而不牺牲最终的学习准确性和校准性。
- 关键思路该方法整合了压缩策略和允许设备在发送本地后验分布之前执行多个优化步骤,以减少通信开销。
- 其它亮点实验使用了工业物联网(IIoT)用例,在具有自主雷达传感器的协作节点中,定位共享机器人工作场所中的人员。结果表明,该方法在减少通信开销的同时,获得了高度准确且校准的ML模型。该方法在校准方面优于现有的压缩频率学习(FL)设置,尤其是在测试数据集的统计分布发生变化时。
- 最近在这个领域中,还有一些相关的研究,如《Communication-Efficient Learning of Deep Networks from Decentralized Data》、《Federated Learning with Non-IID Data》等。
沙发等你来抢
去评论
评论
沙发等你来抢