- 简介在联邦学习(FL)不断发展的领域中,一种新型攻击引起了研究界的关注,即数据污染攻击,这种攻击通过恶意更改训练数据来威胁模型完整性。本文提出了一个新的防御性框架,专注于在联邦模型中策略性地消除对手用户。我们通过将本地训练实例收集的元数据与差分隐私技术集成,来检测在联邦算法的聚合阶段中的这些异常情况,以确保不会发生数据泄漏。据我们所知,这是FL领域中第一个利用元数据而非模型梯度来确保报告的本地模型诚实的提案。我们广泛的实验表明了我们的方法的有效性,显著减轻了数据污染的风险,同时保持了用户隐私和模型性能。我们的发现表明,这种新的用户消除方法在隐私和效用之间提供了很好的平衡,从而有助于推动FL在安全领域的安全采用,无论是在学术环境中还是在工业中。
- 图表
- 解决问题本文旨在解决联邦学习中的数据污染攻击问题,并提出了一个新的防御框架。
- 关键思路本文提出了一种通过在联邦算法的聚合阶段集成本地训练实例收集的元数据和差分隐私技术来检测异常数据的方法,以确保本地模型的报告诚实性。
- 其它亮点本文的实验结果表明,该方法在明显减轻数据污染风险的同时,保持了用户隐私和模型性能的平衡,为联邦学习在学术界和工业界的安全应用做出了贡献。
- 在联邦学习领域中,最近的相关研究包括:'Federated Learning with Differential Privacy: Algorithms and Empirical Study','Federated Learning: Strategies for Improving Communication Efficiency'等。
沙发等你来抢
去评论
评论
沙发等你来抢