- 简介我们审查了部分共享在线联邦学习(PSO-Fed)算法对抗模型污染攻击的弹性。PSO-Fed通过使客户端每次更新轮次只与服务器交换部分模型估计值来减少通信负载。部分共享模型估计还增强了算法对抗模型污染攻击的鲁棒性。为了更好地了解这种现象,我们分析了在拜占庭客户端存在的情况下PSO-Fed算法的性能,拜占庭客户端是可能通过在与服务器共享之前在本地模型中添加噪声来轻微篡改本地模型的恶意行为者。通过我们的分析,我们证明了PSO-Fed即使在遭受模型污染攻击的压力下,仍能在平均和均方意义下保持收敛。我们进一步推导了PSO-Fed的理论均方误差(MSE),将其与各种参数(如步长、攻击概率、拜占庭客户端数量、客户端参与率、部分共享比率和噪声方差)联系起来。我们还展示了在面对模型污染攻击时,PSO-Fed存在一个非平凡的最优步长。我们广泛的数值实验结果证实了我们的理论断言,并突显了PSO-Fed对抗拜占庭攻击的卓越能力,优于其他相关领先算法。
- 图表
- 解决问题PSO-Fed算法在面对模型污染攻击时的鲁棒性问题
- 关键思路PSO-Fed算法采用部分共享模型估计的方式,降低了通信负载,提高了算法对模型污染攻击的鲁棒性
- 其它亮点论文分析了PSO-Fed算法在存在拜占庭客户端的情况下的性能表现,证明了算法在平均意义和均方意义下都能保持收敛,同时推导出了PSO-Fed算法的理论均方误差(MSE),并将其与各种参数联系起来。论文还展示了在面对模型污染攻击时,PSO-Fed算法存在一个非平凡的最优步长。最后,论文通过广泛的数值实验验证了理论结果,并证明了PSO-Fed算法在对抗拜占庭攻击方面的优越性
- 与PSO-Fed算法相关的研究包括:《Federated Learning with Non-IID Data: Convergence Analysis and Performance Evaluation》、《Secure Federated Learning against Poisoning Attacks: Byzantine-robust Sparse Aggregation》等
沙发等你来抢
去评论
评论
沙发等你来抢