- 简介在当前的人工智能时代,由于隐私问题,用户可以要求人工智能公司从训练数据集中删除他们的数据。作为模型所有者,重新训练模型将消耗大量的计算资源。因此,机器去学习是一种新兴的技术,允许模型所有者删除请求的训练数据或类别,对模型性能的影响较小。然而,对于大规模的复杂数据,例如图像或文本数据,从模型中删除一个类别会导致性能下降,因为很难确定类别和模型之间的联系。不准确的类别删除可能会导致过度或不足的去学习。在本文中,为了准确地定义复杂数据的去学习类别,我们采用概念的定义来代替图像特征或文本数据的标记,以表示去学习类别的语义信息。这种新的表示方法可以切断模型和类别之间的联系,从而完全消除类别的影响。为了分析复杂数据概念的影响,我们采用后期概念瓶颈模型和集成梯度来精确地识别不同类别之间的概念。接下来,我们利用随机和有针对性的标签的数据污染来提出去学习方法。我们在图像分类模型和大型语言模型上测试了我们的方法。结果一致表明,所提出的方法可以准确地从模型中删除目标信息,并且可以大大维持模型的性能。
- 图表
- 解决问题如何进行准确的机器遗忘,以删除特定的训练数据或类别,而不会影响模型性能?
- 关键思路采用概念来代表语义信息,从而精确删除类别,使用后处理概念瓶颈模型和集成梯度来识别复杂数据中的概念,利用数据污染和随机标签的方法提出遗忘方法
- 其它亮点论文提出的方法可以准确地从模型中删除目标信息,并且可以在很大程度上保持模型的性能,使用了图像分类模型和大型语言模型进行测试,实验结果表明该方法的有效性
- 最近的相关研究包括“Gradient-based Learning of Higher-order Image Features”、“Learning Deep Features for Discriminative Localization”等
沙发等你来抢
去评论
评论
沙发等你来抢