- 简介联邦学习(FL)于2017年提出,促进了不信任方之间的协作学习,无需方明确共享数据。这使得在尊重GDPR和CPRA等隐私法规的情况下,可以训练用户数据上的模型。然而,出现的隐私要求可能要求模型所有者能够“遗忘”一些已学习的数据,例如在数据所有者或执法机构要求时。这催生了一个名为“机器遗忘”的活跃研究领域。在FL的背景下,许多为集中式环境开发的遗忘技术并不直接适用于FL,这是由于FL中交互性、随机性、异构性和有限可访问性等独特差异所致。为此,最近的一些工作重点关注于开发针对FL的遗忘机制。本文旨在深入研究“联邦遗忘”文献,旨在确定这一新兴领域的研究趋势和挑战。通过仔细分类FL遗忘的论文(自2020年以来),我们旨在确定联邦遗忘的独特复杂性,突出直接应用集中式遗忘方法的局限性。我们比较现有的联邦遗忘方法,包括影响消除和性能恢复,比较它们的威胁模型和假设,并讨论它们的影响和局限性。例如,我们从数据异构性及其模拟、用于演示的数据集和评估指标等多个方面分析FL遗忘研究的实验设置。我们的工作旨在为未来的联邦遗忘研究提供见解和建议。
- 图表
- 解决问题本文旨在深入研究联邦学习中的机器遗忘问题,即如何在不违反隐私法规的前提下,实现模型拥有者删除某些已学习数据的能力。
- 关键思路本文针对联邦学习中的独特复杂性,提出了针对联邦学习的机器遗忘机制,比较了现有的方法,包括影响消除和性能恢复等方面的比较,分析了实验设计、数据集和评估指标等方面的问题。
- 其它亮点本文详细分类了自2020年以来发表的联邦遗忘论文,指出了联邦遗忘的独特复杂性,比较了不同的方法,并提出了未来研究的建议。
- 近年来,有许多相关研究,例如《Federated Machine Unlearning with GANs》和《Towards Federated Unlearning with Quantization-based Compression》等。
沙发等你来抢
去评论
评论
沙发等你来抢