Class Gradient Projection For Continual Learning

2023年11月25日
  • 简介
    灾难性遗忘是连续学习(CL)中最重要的挑战之一。最近的方法通过将梯度更新投影到现有任务的梯度子空间正交来解决这个问题。虽然结果是显著的,但这些计算出的梯度不保证对于每个类别的梯度子空间都是正交的,因为任务中存在类别的差异,例如区分“男人”和“海洋”与区分“男孩”和“女孩”。因此,这种策略仍然可能会导致某些类别的灾难性遗忘。在本文中,我们提出了一种称为类梯度投影(CGP)的方法,它从单个类别中计算梯度子空间,而不是从任务中计算。更新梯度正交于现有类别的梯度子空间可以有效地减小其他类别的干扰。为了提高泛化性能和效率,我们进一步设计了一种基本细化(BR)算法,将相似的类别组合起来,并动态地细化类别基础。此外,我们利用对比学习方法来提高模型处理未见任务的能力。在基准数据集上的广泛实验表明了我们提出的方法的有效性。它在CIFAR-100数据集上比以前的方法提高了2.0%。
  • 作者讲解
  • 图表
  • 解决问题
    论文试图解决在Continual Learning中的Catastrophic forgetting问题,即在学习新任务时忘记之前学习的内容的问题。同时,论文也试图提高模型的泛化能力和效率。
  • 关键思路
    论文提出了Class Gradient Projection (CGP)方法,通过计算每个类别的梯度子空间而不是任务的梯度子空间,将梯度更新投影到已有类别的梯度子空间上,以减少其他类别的干扰。此外,论文还设计了Base Refining (BR)算法来动态地组合相似的类别和优化类别基向量,以提高泛化能力和效率。同时,论文还使用对比学习方法来提高模型处理未见过任务的能力。
  • 其它亮点
    论文的实验使用了多个基准数据集,并且将结果与之前的方法进行了比较,证明了CGP方法的有效性,相比之前的方法在CIFAR-100数据集上提高了2.0%的准确率。此外,论文还开源了代码。值得进一步研究的工作包括如何更好地组合类别和如何处理更复杂的任务序列。
  • 相关研究
    在Continual Learning领域的相关研究包括:Gradient Episodic Memory for Continual Learning,Continual Learning with Deep Generative Replay,Learning without Forgetting,等等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问