Towards Lifelong Learning of Large Language Models: A Survey

2024年06月10日
  • 简介
    随着大型语言模型(LLMs)在各个领域的应用不断扩大,这些模型适应数据、任务和用户偏好变化的能力变得至关重要。传统的训练方法依赖于静态数据集,越来越无法应对现实世界信息的动态性。终身学习,也称为持续或增量学习,通过使LLMs在其运行寿命内持续和适应性地学习,整合新知识,同时保留先前学习的信息并防止灾难性遗忘来解决这一挑战。本文深入探讨了终身学习的复杂领域,将策略分为两个主要组:内部知识和外部知识。内部知识包括持续预训练和持续微调,每种方法都增强了LLMs在各种场景下的适应能力。外部知识包括基于检索和基于工具的终身学习,利用外部数据源和计算工具扩展模型的能力,而不修改核心参数。我们的调查的关键贡献是:(1)引入了一个新的分类法,将终身学习的广泛文献分类为12种情境;(2)确定了所有终身学习情境中的常见技术,并将现有文献分类为每种情境中的各种技术组;(3)突出了新兴技术,如模型扩展和数据选择,在LLM时代之前较少被探索。通过对这些组及其各自类别的详细考察,本文旨在提高LLMs在实际应用中的适应性、可靠性和整体性能。
  • 作者讲解
  • 图表
  • 解决问题
    解决问题的问题是什么,这是否是一个新问题?
  • 关键思路
    解决问题的方案的关键思路是什么?这篇论文的思路有什么新意?
  • 其它亮点
    论文还有哪些值得关注的地方?实验是如何设计的?使用了哪些数据集,有没有开源代码?哪些工作值得继续深入研究?
  • 相关研究
    最近在这个领域中,还有哪些相关的研究被进行?能否列举一些相关研究的论文标题?
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问