- 简介高级生命形式通过神经认知机制的协同作用不断地获取和传递知识,这种连续学习的特征是当代机器学习方法所无法模拟的。然而,大型语言模型(LLM)的出现为通过与这些模型的交互实现连续学习提供了有希望的途径。本文借鉴互补学习系统理论,提出了一种新的交互式连续学习(ICL)框架,通过各种模型之间的协作交互来实现。具体来说,我们将ViT模型指定为System1,多模态LLM指定为System2。为了使记忆模块能够从类信息中推断出任务并增强Set2Set检索,我们提出了Class-Knowledge-Task Multi-Head Attention(CKT-MHA)。此外,为了通过改进几何表示来提高System1的记忆检索能力,我们引入了基于von Mises-Fisher(vMF)分布的CL-vMF机制。同时,我们引入了von Mises-Fisher Outlier Detection and Interaction(vMF-ODI)策略来识别难例,从而增强System1和System2之间的协作,实现复杂推理。我们对所提出的ICL进行了全面评估,结果表明其具有显著的抗遗忘性和优越的性能,相对于现有方法而言表现更好。
-
- 图表
- 解决问题本论文试图解决机器学习模型在持续学习方面的局限性,并通过与大型语言模型的交互实现交互式持续学习框架。
- 关键思路论文提出了一种基于协作交互的持续学习框架,通过多个模型的协作交互实现记忆模块的更新和信息检索。同时,引入了一种基于von Mises-Fisher分布的机制来提高几何表示的性能,以及一种vMF-ODI策略来检测难例,从而增强了模型的合作能力。
- 其它亮点论文通过实验证明了该方法在防止遗忘方面具有显著的抗性,并且相对于现有方法具有更好的性能。实验使用了多个数据集,并且开源了代码。该方法的提出为持续学习领域提供了新的思路和方法。
- 最近在持续学习领域中,还有一些相关的研究,例如《Continual Learning with Deep Generative Replay》和《Overcoming Catastrophic Forgetting with Hard Attention to the Task》。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流