- 简介在线无任务持续学习(OTFCL)是持续学习的一种更具挑战性的变体,强调任务边界的逐渐转移并以在线模式学习。现有的方法依赖于由旧样本组成的内存缓冲区以防止遗忘。然而,使用内存缓冲区不仅引起隐私问题,而且阻碍了新样本的有效学习。为了解决这个问题,我们提出了一个新的框架称为I2CANSAY,它摆脱了对内存缓冲区的依赖,并从一次性样本中高效地学习新数据的知识。具体而言,我们的框架包括两个主要模块。首先,互类比拟增强(ICAN)模块基于不同新类别的特征分布的互类比拟生成旧类别的多样化伪特征,作为内存缓冲区的替代品。其次,内类重要性分析(ISAY)模块通过其分布标准差分析每个类别的属性重要性,并生成重要性向量作为线性分类器的校正偏差,从而增强从新样本中学习的能力。我们在四个流行的图像分类数据集上运行实验:CoRe50、CIFAR-10、CIFAR-100和CUB-200,我们的方法在性能上大幅优于之前的最先进方法。
- 图表
- 解决问题论文试图解决OTFCL中使用memory buffer带来的隐私问题和效率问题,提出一种新的框架I2CANSAY,通过ICAN和ISAY两个模块来实现从一次样本中高效学习新知识
- 关键思路ICAN模块通过生成旧类别的伪特征来替代memory buffer,ISAY模块通过分析每个类别的属性重要性来生成一个校正偏差向量,提高从新样本中学习的能力
- 其它亮点实验在四个流行的图像分类数据集上进行,超过之前最先进方法,ICAN和ISAY模块的有效性得到验证,该方法不依赖于memory buffer,提高了隐私保护和学习效率
- 相关研究包括使用memory replay的方法和基于生成对抗网络的方法,如iCarl和GSS
沙发等你来抢
去评论
评论
沙发等你来抢