- 简介在增量目标检测中,知识蒸馏已被证明是缓解灾难性遗忘的有效方法。然而,先前的研究集中于保留旧模型的知识,忽略了图像可能同时包含过去、现在和未来阶段的类别。对象的共存使得不同阶段的优化目标不一致,因为前景对象的定义在各个阶段是不同的,这极大地限制了模型的性能。为了解决这个问题,我们提出了一种称为“连接过去和未来”(BPF)的方法,它在各个阶段对齐模型,确保一致的优化方向。此外,我们提出了一种新的“带有未来”的蒸馏(DwF)损失,充分利用背景概率来减轻旧类别的遗忘,同时确保在学习新类别时具有高度的适应性。在Pascal VOC和MS COCO基准测试中进行了大量实验。在没有记忆的情况下,BPF在各种设置下均优于当前最先进的方法。代码可在https://github.com/iSEE-Laboratory/BPF上找到。
- 图表
- 解决问题本论文旨在解决增量目标检测中的灾难性遗忘问题,即在学习新类别时忘记旧类别的问题。同时,该论文还试图解决由于图像中同时包含来自过去、现在和未来阶段的类别而导致的优化目标不一致的问题。
- 关键思路该论文提出了一种名为“Bridge Past and Future”(BPF)的方法,通过对模型进行对齐,确保不同阶段的优化方向一致,从而解决了优化目标不一致的问题。此外,论文还提出了一种新的“Distillation with Future”(DwF)损失函数,充分利用背景概率来缓解旧类别的遗忘,并确保在学习新类别时具有高适应性。
- 其它亮点论文在Pascal VOC和MS COCO基准测试数据集上进行了广泛的实验。BPF方法在各种设置下都优于当前最先进的方法。该论文提供了开源代码,可在https://github.com/iSEE-Laboratory/BPF上获得。值得进一步研究的工作包括如何在更大的数据集上验证该方法的有效性。
- 与此论文相关的研究包括:Incremental Learning for Object Detection,Learning to Learn from Data Streams,Continual Learning for Object Detection等。
沙发等你来抢
去评论
评论
沙发等你来抢