- 简介联邦学习(FL)允许多个设备在不共享数据的情况下协同训练模型。尽管具有许多优点,但FL容易受到隐私泄露和毒化攻击的影响。为解决隐私问题,通常使用安全聚合(SecAgg)来获取聚合梯度,而无需检查个人用户更新。不幸的是,现有的毒化攻击防御策略依赖于明文局部更新的分析,这使它们与SecAgg不兼容。为了解决这些冲突,我们提出了一种基于SecAgg协议的强大的联邦学习框架,用于抵御毒化攻击(RFLPA)。我们的框架计算本地更新和服务器更新之间的余弦相似度以进行强大的聚合。此外,我们利用可验证的打包Shamir秘密共享来实现每个用户的$O(M + N)$的通信成本,并设计了一种新的点积聚合算法来解决信息泄漏问题。我们的实验结果表明,与最先进的方法BREA相比,RFLPA将通信和计算开销显著减少了超过75%,同时保持了竞争性的准确性。
- 图表
- 解决问题本论文旨在解决联邦学习中的隐私泄露和毒化攻击问题,提出了一种基于安全聚合协议的鲁棒联邦学习框架。
- 关键思路该框架通过计算本地更新和服务器更新之间的余弦相似度来进行聚合,同时利用可验证的打包Shamir秘密共享来实现每个用户的通信成本为O(M + N),并设计了一种新的点积聚合算法来解决信息泄露的问题。
- 其它亮点该框架在保持竞争性准确性的同时,将通信和计算开销降低了75%以上,相比于现有的BREA方法,具有更高的效率和更好的隐私保护。实验使用了数据集进行验证,但没有提供开源代码。
- 最近的相关研究包括:1.《Federated Learning with Byzantine Robust Aggregation》;2.《Privacy-Preserving Federated Learning with Byzantine Robust Aggregation》。
沙发等你来抢
去评论
评论
沙发等你来抢