Compressed Latent Replays for Lightweight Continual Learning on Spiking Neural Networks

2024年05月08日
  • 简介
    本文探讨了在深度神经网络中广泛研究的基于重复训练的连续学习(CL)在脉冲神经网络(SNNs)中的应用。我们介绍了第一个内存高效实现的基于潜在重放(LR)的SNNs连续学习,旨在与资源受限设备无缝集成。LRs将新样本与先前学习数据的潜在表示相结合,以减轻遗忘。在带有样本和类增量任务的Heidelberg SHD数据集上进行的实验,分别达到92.5%和92%的Top-1准确率,而不会遗忘先前学习的信息。此外,我们通过应用时间域压缩来最小化LRs的要求,将它们的内存需求降低了两个数量级,相对于朴素的重复训练设置,最大准确率下降4%。在多类增量任务上,我们的SNN从初始的10个类中学习了10个新类,达到了全测试集的78.4%的Top-1准确率。
  • 作者讲解
  • 图表
  • 解决问题
    本文旨在解决在脉冲神经网络(SNNs)中实现连续学习(CL)的问题,并提出一种内存有效的Latent Replay(LR)方法,以防止遗忘。
  • 关键思路
    论文提出了一种基于LR的CL方法,将新样本与先前学习数据的潜在表示相结合,以防止遗忘,并通过应用时域压缩来减少LR的要求。
  • 其它亮点
    实验在Heidelberg SHD数据集上进行,分别进行了样本和类增量任务,达到了92.5%和92%的Top-1准确率,而不会遗忘先前学习的信息。此外,通过应用时域压缩,将LR的内存需求减少了两个数量级,最大准确度下降4%。在多类增量任务上,SNN从初始的10个类别中学习了10个新类别,在完整测试集上达到了78.4%的Top-1准确率。
  • 相关研究
    最近,也有一些研究关注SNNs中的连续学习问题,如“Online Continual Learning with Oja's Rule in Spiking Neural Networks”和“Continual Learning in Spiking Neural Networks with Adaptive Structural Plasticity”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问