- 简介随着大型语言模型(LLMs)在各个领域的应用不断扩大,这些模型适应数据、任务和用户偏好变化的能力变得至关重要。传统的训练方法依赖于静态数据集,越来越无法应对现实世界信息的动态性。终身学习,也称为持续或增量学习,通过使LLMs在其运行寿命内持续和适应性地学习,整合新知识,同时保留先前学习的信息并防止灾难性遗忘来解决这一挑战。本文深入探讨了终身学习的复杂领域,将策略分为两个主要组:内部知识和外部知识。内部知识包括持续预训练和持续微调,每种方法都增强了LLMs在各种场景下的适应能力。外部知识包括基于检索和基于工具的终身学习,利用外部数据源和计算工具扩展模型的能力,而不修改核心参数。我们的调查的关键贡献是:(1)引入了一个新的分类法,将终身学习的广泛文献分类为12种情境;(2)确定了所有终身学习情境中的常见技术,并将现有文献分类为每种情境中的各种技术组;(3)突出了新兴技术,如模型扩展和数据选择,在LLM时代之前较少被探索。通过对这些组及其各自类别的详细考察,本文旨在提高LLMs在实际应用中的适应性、可靠性和整体性能。
-
- 图表
- 解决问题解决问题的问题是什么,这是否是一个新问题?
- 关键思路解决问题的方案的关键思路是什么?这篇论文的思路有什么新意?
- 其它亮点论文还有哪些值得关注的地方?实验是如何设计的?使用了哪些数据集,有没有开源代码?哪些工作值得继续深入研究?
- 最近在这个领域中,还有哪些相关的研究被进行?能否列举一些相关研究的论文标题?
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流