InfLoRA: Interference-Free Low-Rank Adaptation for Continual Learning

2024年03月30日
  • 简介
    持续学习要求模型按顺序学习多个任务。在持续学习中,模型应具备维持其在旧任务上的表现(稳定性)和不断适应新任务(可塑性)的能力。最近,参数效率微调(PEFT)在持续学习中越来越受欢迎,它涉及冻结一个预训练模型并注入少量可学习参数以适应下游任务。尽管基于PEFT的现有持续学习方法已经证明比不基于PEFT的方法表现更优,但大多数方法并未考虑如何消除新任务对旧任务的干扰,这会阻碍模型在稳定性和可塑性之间做出良好的平衡。在这项工作中,我们提出了一种新的PEFT方法,称为无干扰低秩适应(InfLoRA),用于持续学习。InfLoRA注入少量参数以重新参数化预训练权重,并表明微调这些注入的参数等同于在子空间内微调预训练权重。此外,InfLoRA设计了这个子空间以消除新任务对旧任务的干扰,从而在稳定性和可塑性之间做出良好的平衡。实验结果表明,InfLoRA在多个数据集上优于现有最先进的持续学习方法。
  • 作者讲解
  • 图表
  • 解决问题
    论文旨在提出一种新的参数高效微调(PEFT)方法,名为InfLoRA,以解决连续学习中新任务对旧任务的干扰问题。
  • 关键思路
    InfLoRA注入少量可学习参数来重新参数化预训练权重,并通过设计子空间来消除新任务对旧任务的干扰,从而实现稳定性和可塑性之间的良好平衡。
  • 其它亮点
    论文实验结果表明,InfLoRA在多个数据集上优于现有的连续学习方法。论文还开源了代码,并提供了详细的实验设计和结果分析。
  • 相关研究
    近期的相关研究包括:Continual Learning with Adaptive Weights (CLaP),Gradient Episodic Memory (GEM),Online EWC (O-EWC)等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问