图片

深度模型,如CNN和视觉transformer,在封闭世界的许多视觉任务中取得了令人印象深刻的成就。然而,在瞬息万变的世界中,新颖的类别不断涌现,这就要求学习系统不断获取新知识。例如,机器人需要理解新的指令,而意见监测系统应该每天分析新出现的主题。类增量学习(class incremental Learning, CIL)使学习者能够增量地吸收新类别的知识,并在所有见过的类别中构建通用分类器。相应地,当直接用新的类实例训练模型时,一个致命的问题发生了——模型倾向于灾难性地忘记以前的特征,其性能急剧下降。在机器学习社区中,已经为解决灾难性遗忘做出了许多努力。文中全面综述了深度类增量学习的最新进展,并从以数据为中心、以模型为中心和以算法为中心3个方面对这些方法进行了总结。对基准图像分类任务中的16种方法进行了严格统一的评估,从经验上总结了不同算法的特点。此外,我们注意到目前的比较协议忽略了模型存储中内存预算的影响,可能会导致不公平的比较和有偏差的结果。因此,本文主张通过在评估中调整内存预算,以及几个与内存无关的性能度量,来进行公平比较。可以在https://github.com/zhoudw-zdw/CIL_Survey/获得重现这些评估的源代码。

 

论文链接:https://arxiv.org/pdf/2302.03648.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除