- 简介Federated learning(FL)于2017年提出,促进了不信任各方之间的协作学习,无需各方明确共享其数据。这允许在尊重GDPR和CPRA等隐私法规的情况下,对用户数据进行模型训练。然而,新兴的隐私要求可能会要求模型所有者能够“遗忘”一些学习数据,例如在数据所有者或执法部门要求时。这催生了一个名为“机器遗忘”的活跃研究领域。在FL的背景下,许多在集中式环境中开发的遗忘技术并不是简单地适用!这是由于FL中的互动性、随机性、异质性和有限可访问性之间的独特差异造成的。作为回应,最近的一系列工作专注于开发针对FL量身定制的遗忘机制。本文旨在深入研究“联邦遗忘”文献,旨在确定这一新兴领域的研究趋势和挑战。通过仔细分类发表在FL遗忘上的论文(自2020年以来),我们旨在确定联邦遗忘的独特复杂性,突出在直接应用集中式遗忘方法方面的局限性。我们比较现有的联邦遗忘方法,包括影响消除和性能恢复,比较它们的威胁模型和假设,并讨论它们的含义和局限性。例如,我们从各个角度分析FL遗忘研究的实验设置,包括数据异质性及其模拟、用于演示的数据集以及评估指标。我们的工作旨在为未来的联邦遗忘研究提供洞见和建议。
- 图表
- 解决问题该论文旨在深入研究联邦学习中的机器去学习问题,以确定该领域的研究趋势和挑战。
- 关键思路该论文主要探讨联邦去学习的方法,以解决联邦学习中的隐私问题。该论文提出的方法与集中式去学习方法不同,可以更好地适应联邦学习的特殊需求。
- 其它亮点该论文比较了现有的联邦去学习方法,包括影响消除和性能恢复等方面,并分析了实验设计和评估指标等方面。论文还提出了一些未来的研究方向。
- 近年来,许多研究都集中在联邦学习和隐私保护方面,例如《Federated Learning: Challenges, Methods, and Future Directions》、《Privacy-Preserving Deep Learning》等。
沙发等你来抢
去评论
评论
沙发等你来抢