- 简介现有的持续学习文献在很大程度上依赖于一个强假设,即任务以平衡的数据流的形式出现,这在实际应用中通常是不现实的。在本研究中,我们探讨了任务不平衡的持续学习(TICL)场景,其中任务数据的分布在整个学习过程中是不均匀的。我们发现,不平衡的任务显著挑战了模型从最近的提示式持续学习方法的角度控制稳定性和可塑性之间权衡的能力。在上述发现的基础上,我们提出了动态锚定提示(DAP),这是一种基于提示的方法,仅维护一个通用提示来动态适应任务流中的变化。这个通用提示在提示空间中通过两个特别设计的提示锚定点(称为增强锚定点和稳定锚定点)进行正则化,以在TICL中平衡稳定性和可塑性。值得注意的是,DAP仅通过在数据流中存储一个提示来实现这种平衡,因此在无需排练的持续学习中具有显著优势。广泛的实验表明,所提出的DAP在任务不平衡的设置下比最先进的方法提高了4.5%至15%的绝对性能。我们的代码可在 https://github.com/chenxing6666/DAP 上找到。
- 图表
- 解决问题本文试图解决任务不平衡的持续学习问题,即任务数据流的分布不均匀的情况下,如何平衡模型的稳定性和可塑性。
- 关键思路本文提出了一种动态锚定提示(DAP)的方法,通过在提示空间中设计两个特定的提示锚点来平衡稳定性和可塑性,从而适应任务流的变化。
- 其它亮点本文的实验结果表明,DAP方法在任务不平衡的情况下相比于现有的方法有4.5%到15%的绝对改进。作者还开源了他们的代码。
- 最近的相关研究包括Prompt-based CL、Rehearsal-free CL、Lifelong Learning、Catastrophic Forgetting等。
沙发等你来抢
去评论
评论
沙发等你来抢