- 简介最近的连续学习(CL)方法将预训练的Transformer与prompt tuning相结合,这是一种参数高效的微调技术(PEFT)。我们认为,在先前的研究中选择prompt tuning是一种未经证明和未经削弱的决策,但随后的研究不加批判地采用了这种决策,因此需要进一步研究以了解其影响。在本文中,我们进行了这项研究,并发现将prompt tuning作为PEFT方法的选择会损害CL系统的整体性能。为了说明这一点,我们将LoRA替换为两种最先进的连续学习方法(Learning to Prompt和S-Prompts)中的prompt tuning。这些变体在广泛的域增量和类增量基准测试中始终实现更高的准确性,同时具有竞争性的推理速度。我们的工作强调了一个至关重要的论点:未经审查的选择可能会阻碍该领域的进展,需要进行严格的削弱,例如PEFT方法,以推动CL技术在实际应用中的有意义的采用。
- 图表
- 解决问题论文旨在探讨连续学习中预训练Transformer与参数高效微调(PEFT)技术的组合中,prompt tuning选择的影响问题。
- 关键思路通过将prompt tuning替换为LoRA,提高了连续学习系统的性能。
- 其它亮点论文设计了实验来验证新的PEFT方法,并在广泛的领域增量和类增量基准测试中获得了更高的准确性。论文的结果表明,PEFT方法的严格剖析是驱动连续学习技术在实际应用中取得有意义的进展的必要条件。
- 最近的相关研究包括:Learning to Prompt和S-Prompts等连续学习方法以及预训练Transformer和参数高效微调技术。
沙发等你来抢
去评论
评论
沙发等你来抢