- 简介Few-shot class-incremental learning (FSCIL)面临的挑战是在模型中集成新类别,同时最小化训练样本,同时保留先前学习的类别的知识。传统方法广泛采用静态适应,依赖于固定的参数空间来从顺序到达的数据中学习,容易过度拟合当前会话。现有的动态策略需要不断扩展参数空间,导致复杂度增加。为了解决这些挑战,我们将最近提出的选择性状态空间模型(SSM)集成到FSCIL中。具体而言,我们提出了一个双重选择性SSM投影仪,根据中间特征动态调整投影参数进行动态适应。双重设计使模型能够保持基础类别的强大特征,同时自适应地学习新颖类别的独特特征变化。此外,我们开发了一种类敏感的选择性扫描机制来指导动态适应。它最小化了由于在新颖数据上训练而引起的对基础类别表示的干扰,同时迫使选择性扫描在基础和新颖类别之间以不同的模式执行。在miniImageNet、CUB-200和CIFAR-100上的实验表明,我们的框架优于现有的最先进方法。代码可在https://github.com/xiaojieli0903/Mamba-FSCIL上获得。
- 图表
- 解决问题本文旨在解决Few-shot class-incremental learning(FSCIL)中,如何将新类别集成到模型中,同时保留先前学习类别的知识的挑战。现有的静态自适应方法往往依赖于固定的参数空间来学习顺序到达的数据,容易过度拟合当前会话。而现有的动态策略需要不断扩展参数空间,导致复杂度增加的问题。
- 关键思路本文将最近提出的选择性状态空间模型(SSM)集成到FSCIL中,提出了双重选择性SSM投影器,根据中间特征动态调整投影参数。双重设计使模型能够保持基类的强大特征,同时自适应地学习新类别的独特特征偏移。此外,作者还开发了一种类敏感的选择性扫描机制,以指导动态自适应。它最小化了由于训练新数据而对基类表示造成的干扰,同时迫使选择性扫描在基类和新类之间以不同的模式执行。
- 其它亮点本文的亮点包括:提出了一个新的框架,解决了Few-shot class-incremental learning(FSCIL)中的问题;在miniImageNet、CUB-200和CIFAR-100上进行了实验,证明了该框架的有效性;开源了代码。
- 最近的相关研究包括:《Few-Shot Learning with Global Class Representations》、《Few-shot Class-incremental Learning with Adversarial Erasing》、《Dynamic Few-Shot Visual Learning without Forgetting》等。
沙发等你来抢
去评论
评论
沙发等你来抢