- 简介随着“被遗忘权”法规的通过和语言模型训练数据集的扩大,对大型语言模型(LLMs)中模型遗忘的研究变得更加关键。在LLMs时代之前,机器遗忘研究主要集中在具有小参数的模型的分类任务上。在这些任务中,要遗忘或保留的内容是清晰明了的。然而,随着参数大小的增长和任务的复杂化,平衡遗忘质量和模型效用变得更加具有挑战性,特别是在涉及个人数据而不是分类结果的情况下。基于梯度上升及其变体的现有方法常常在这种平衡上遇到困难,导致意外信息丢失或部分遗忘。为了解决这一挑战,我们提出了RKLD,一种新颖的基于反向KL散度的知识蒸馏遗忘算法,用于LLMs中针对个人信息的遗忘。通过RKLD,在我们的实验中实现了显著的遗忘质量,并有效地维护了模型效用。
- 图表
- 解决问题解决问题:论文旨在解决大型语言模型(LLMs)中个人信息的遗忘问题,现有方法在平衡遗忘质量和模型效用方面存在困难。
- 关键思路关键思路:本文提出了一种新的基于反向KL散度的知识蒸馏遗忘算法RKLD,能够在LLMs中实现有效的遗忘个人信息,同时保持模型效用。
- 其它亮点其他亮点:实验结果表明,RKLD算法在遗忘质量和模型效用方面都表现出色。论文使用了RTBF数据集进行实验,并开源了代码。这项工作为解决个人信息遗忘问题提供了新的思路和方法。
- 相关研究:最近的相关研究包括《Gradient-Based Learning Applied to Document Recognition》、《The Right to Be Forgotten in the Media: A Data-Driven Study》等。
沙发等你来抢
去评论
评论
沙发等你来抢