- 简介机器去学习是指从已经训练好的模型中删除一部分训练数据(即“遗忘集”)的影响,而不会损害模型的实用性,例如遵守用户的数据删除请求,或删除错误标记、有毒或其他有问题的数据。由于去学习研究仍处于初级阶段,存在许多基本的未解决问题:是否存在可解释的遗忘集特征,它们实质性地影响了问题的难度?这些特征如何影响不同的最先进算法?本文旨在回答这些问题,并提出了第一个探究这些问题的研究。我们确定了影响去学习难度和算法性能的两个关键因素。在隔离这些因素的遗忘集上进行评估,揭示了最先进算法的以前未知的行为,这些行为在随机遗忘集上并不明显。基于我们的洞察,我们开发了一个名为精细去学习元算法(RUM)的框架,它包括:(i)根据不同特征将遗忘集细分为同质化子集;(ii)一个元算法,利用现有算法去学习每个子集,并最终提供一个已去学习整个遗忘集的模型。我们发现,RUM极大地改善了表现最佳的去学习算法。总的来说,我们认为本研究是深化我们对去学习的科学理解和揭示改进最先进技术的新途径的重要一步。
- 图表
- 解决问题本文研究机器学习中的遗忘问题,即如何从已训练的模型中删除一部分数据的影响,而不影响模型的效用。作者试图回答遗忘数据集的特征对于遗忘难度和算法性能的影响,以及如何提高当前算法的性能。
- 关键思路本文提出了一种名为Refined-Unlearning Meta-algorithm(RUM)的框架,该框架将遗忘数据集分成不同特征的同质化子集,并使用现有算法对每个子集进行遗忘,最终提供一个已遗忘整个遗忘数据集的模型。RUM显著提高了当前算法的性能。
- 其它亮点本文的亮点在于,作者通过实验揭示了当前算法在遗忘数据集特定特征上的表现,提出了一种新的框架来提高算法性能,并在多个数据集上进行了验证。此外,作者还提供了开源代码,方便其他研究人员进行进一步研究。
- 与本文相关的研究包括:《The Mirage of Action-Dependent Baselines in Reinforcement Learning》、《Learning to Learn without Forgetting by Maximizing Transfer and Minimizing Interference》等。
沙发等你来抢
去评论
评论
沙发等你来抢