TEAL: New Selection Strategy for Small Buffers in Experience Replay Class Incremental Learning

2024年06月30日
  • 简介
    持续学习是一个未解决的挑战,在考虑现代应用时其相关性增加。与人类大脑不同,经过训练的深度神经网络受到一种称为灾难性遗忘的现象的影响,随着学习新任务,它们逐渐失去先前获得的知识。为了缓解这个问题,已经开发了许多方法,其中许多方法依赖于在新任务训练期间重放过去的样本。然而,随着用于重放的内存减少,这些方法的有效性会减弱。另一方面,为了重放而维护大量内存是低效的,通常也是不切实际的。在这里,我们介绍了一种名为TEAL的新方法,用于填充样本内存,可以与各种经验重放方法集成,并显著提高它们在小内存缓冲区上的性能。我们展示了TEAL如何提高SOTA方法XDER以及ER和ER-ACE在多个图像识别基准测试中的平均准确度,其中每个类别的最终任务只有1-3个样本的小内存缓冲区。这证实了假设,即当内存稀缺时,最好优先考虑最典型的数据。
  • 图表
  • 解决问题
    如何解决深度神经网络训练过程中的遗忘问题,特别是在小内存缓冲区的情况下?
  • 关键思路
    提出了一种新的方法TEAL,通过将最典型的数据放入内存中进行重放,以优化各种经验重播方法的性能。
  • 其它亮点
    论文在多个图像识别基准测试中展示了TEAL方法的有效性,证实了在内存有限的情况下,优先选择最典型的数据的假设。论文的代码和数据集都已经开源。
  • 相关研究
    相关研究包括XDER、ER和ER-ACE等经验重播方法,以及其他解决遗忘问题的方法,如增量学习和元学习。
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论