- 简介这篇论文介绍了Few-Shot Class-Incremental Learning (FSCIL)模型,旨在在保留旧类知识的同时,通过少量样本逐步学习新类。现有的FSCIL方法通常对整个主干进行微调,导致过拟合并阻碍了学习新类的潜力。另一方面,最近的基于提示的CIL方法通过在每个任务中训练具有足够数据的提示来减轻遗忘。本文提出了一种名为Attention-aware Self-adaptive Prompt (ASP)的新框架。ASP通过从注意力方面减少特定信息来鼓励任务不变的提示捕捉共享知识。此外,ASP中的自适应任务特定提示提供特定信息,并通过信息瓶颈学习目标将知识从旧类传递到新类。总之,ASP防止了在基础任务上的过拟合,并且不需要大量数据进行少量样本增量任务。在三个基准数据集上进行的广泛实验验证了ASP在学习新类和减轻遗忘方面始终优于最先进的FSCIL和基于提示的CIL方法。
-
- 图表
- 解决问题本文旨在解决Few-Shot Class-Incremental Learning (FSCIL)模型在增量学习新类别时出现过拟合的问题,提出了Attention-aware Self-adaptive Prompt (ASP)框架,以达到防止过拟合和不需要大量数据的目的。
- 关键思路ASP框架通过减少注意力方面的特定信息来鼓励任务不变提示捕捉共享知识,同时通过信息瓶颈学习目标提供自适应任务特定提示,从而将旧类别的知识转移给新类别。
- 其它亮点本文的亮点在于提出了Attention-aware Self-adaptive Prompt (ASP)框架,旨在解决Few-Shot Class-Incremental Learning (FSCIL)模型在增量学习新类别时出现过拟合的问题。实验结果表明,ASP框架在学习新类别和减轻遗忘方面优于其他FSCIL和基于提示的CIL方法。
- 与本文相关的研究包括Few-Shot Class-Incremental Learning (FSCIL)模型和基于提示的CIL方法。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流