A Sparse Quantized Hopfield Network for Online-Continual Memory
解决问题:本篇论文旨在解决神经网络与大脑学习方式的差异问题,探索在非独立同分布、在线式数据流中使用离散图模型进行最大后验学习的可能性。这是一个新颖的问题。
关键思路:本文提出了一种新型的神经网络模型——Sparse Quantized Hopfield Network(SQHN),利用离散图模型实现在线最大后验学习,以解决非独立同分布数据流中的学习问题。相对于当前领域的研究,本文的思路具有创新性。
其他亮点:本文的实验表明,SQHN在联想记忆任务中的表现优于现有的神经网络模型,在非独立同分布的在线学习环境中表现更好,在噪声输入下学习效率更高,并且在新颖的情景记忆任务中优于基线模型。作者开源了代码,值得进一步深入研究。
关于作者:主要作者Nick Alonso和Jeff Krichmar都是神经科学和工程领域的专家,分别来自美国加州大学欧文分校和加州大学河滨分校。他们之前的代表作包括:Alonso等人的“Dynamic Reorganization of Neuronal Activity Patterns in Parietal Cortex”和Krichmar等人的“Neuromodulatory Systems and Their Interactions: A Review of Models and Experiments”。
相关研究:近期的相关研究包括:《Continual Learning with Hypernetworks》(David Ha等,Google Brain)、《Continual Learning Through Synaptic Intelligence》(Friedemann Zenke等,洛桑联邦理工大学)等。
论文摘要:这篇论文探讨了大脑和深度神经网络之间学习方式的重要差异。神经系统是在线学习的,接收一系列嘈杂的数据点,并以非独立同分布的方式呈现。此外,大脑中的突触可塑性仅依赖于突触本身的局部信息。而深度网络通常使用非局部的学习算法,并在离线、非嘈杂、独立同分布的环境中进行训练。如何在与大脑相同的约束条件下学习神经网络仍是神经科学和神经形态计算的一个开放性问题,目前尚未建立标准方法。本文提出了一种离散图模型,该模型通过在线最大后验概率学习算法进行学习,可以提供这样的方法。我们在一种新型神经网络Sparse Quantized Hopfield Network(SQHN)中实现了这种模型。我们展示了SQHN在联想记忆任务上的表现优于现有的神经网络,在在线、非独立同分布的环境中表现更好,在嘈杂输入下高效学习,并在一项新的情节记忆任务中优于基线。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢