Recent Advances of Foundation Language Models-based Continual Learning: A Survey

2024年05月28日
  • 简介
    最近,基础语言模型(LMs)在自然语言处理(NLP)和计算机视觉(CV)领域取得了显著的成就。与传统的神经网络模型不同,基础LMs通过在广泛的无监督数据集上进行预训练,获取了丰富的常识知识和大量参数,从而获得了强大的迁移学习能力。然而,由于灾难性遗忘,它们仍然无法模拟类似于人类的连续学习。因此,各种基于连续学习(CL)的方法已经被开发出来,以改进LMs,使它们能够适应新任务而不会忘记先前的知识。然而,现有方法的系统分类和性能比较仍然缺乏,这是我们调查的目的。我们对基于CL的方法应用于基础语言模型(例如预训练语言模型(PLMs)、大型语言模型(LLMs)和视觉语言模型(VLMs))的现有文献进行了全面的回顾、总结和分类。我们将这些研究分为离线CL和在线CL,其中包括传统方法、参数高效方法、指令调整方法和连续预训练方法。离线CL包括域增量学习、任务增量学习和类增量学习,而在线CL则分为硬任务边界和模糊任务边界设置。此外,我们概述了CL研究中使用的典型数据集和指标,并对基于LMs的连续学习面临的挑战和未来工作进行了详细分析。
  • 图表
  • 解决问题
    这篇论文旨在系统地回顾、总结和分类现有的基于连续学习的方法,以改进基础语言模型的能力,使它们能够适应新任务而不会忘记以前的知识。
  • 关键思路
    论文通过将现有的连续学习方法分为离线和在线两种类型,提出了一种系统的分类方法,并回顾了各种方法的性能和应用。离线连续学习包括域增量学习、任务增量学习和类增量学习,而在线连续学习则分为硬任务边界和模糊任务边界两种情况。
  • 其它亮点
    论文详细介绍了基础语言模型(如预训练语言模型、大型语言模型和视觉语言模型)的连续学习方法,并提出了各种挑战和未来工作的分析。此外,还介绍了用于CL研究的典型数据集和指标。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如《Continual Learning for Natural Language Generation》、《Continual Learning for Speech Recognition》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论