Goldfish: An Efficient Federated Unlearning Framework

2024年04月04日
  • 简介
    随着最近有关被遗忘权的立法,机器遗忘成为了一个至关重要的研究领域。它可以在不必重新训练的情况下,从联邦训练的机器学习模型中删除用户的数据。然而,当前的机器遗忘算法面临效率和有效性的挑战。为了解决上述问题,我们提出了一个名为Goldfish的新框架,它包括四个模块:基本模型、损失函数、优化和扩展。为了解决现有机器遗忘算法中低有效性的挑战,我们提出了一种新的损失函数。它考虑了剩余数据集中预测和实际标签之间差异导致的损失。同时,它还考虑了从已删除数据集中的预测结果的偏差。此外,它还考虑了预测结果的置信水平。此外,为了提高效率,我们采用了知识蒸馏技术和引入了一个优化模块,其中包括由经验风险指导的早期终止机制和数据分区机制。此外,为了增强聚合模型的鲁棒性,我们提出了一个扩展模块,它包括使用自适应蒸馏温度来处理用户本地数据的异质性和使用自适应权重来处理上传模型质量的多样性的机制。最后,我们进行了全面的实验证明了所提出方法的有效性。
  • 图表
  • 解决问题
    Goldfish论文旨在解决机器遗忘中的效率和有效性问题,提出了一种新的Goldfish框架来实现机器遗忘。
  • 关键思路
    Goldfish框架包括四个模块:基本模型、损失函数、优化和扩展。为了提高有效性,论文提出了一种新的损失函数,同时考虑到预测结果的偏差和置信度。为了提高效率,论文采用知识蒸馏技术和优化模块。此外,论文还提出了一个扩展模块来增强聚合模型的鲁棒性。
  • 其它亮点
    论文进行了广泛的实验来证明所提出的方法的有效性。实验使用了多个数据集,并开源了代码。论文还提出了一些值得深入研究的方向,例如如何处理用户本地数据的异质性和上传模型的质量多样性。
  • 相关研究
    最近的相关研究包括:《机器学习中的遗忘:一种综述》、《深度神经网络的遗忘和增量学习:一种综述》、《面向联邦学习的机器遗忘》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论