- 简介我们讨论了Hopfield网络中的原型形成。通常,具有高度相关状态的Hebbian学习会导致记忆性能下降。我们展示了这种类型的学习可以导致原型形成,其中未学习的状态成为大量相关子集的代表,从而缓解了容量问题。这个过程与人类认知中的原型学习有相似之处。我们对联想记忆中的原型学习进行了大量的文献综述,涵盖了心理学、统计物理学和计算机科学的贡献。我们从理论角度分析了原型形成,并根据原型学习的样例数、样例中的噪声以及非样例状态的数量推导出这些状态的稳定性条件。稳定性条件用于构建原型状态的稳定概率,随着稳定因素的变化而变化。我们还注意到与传统网络分析的相似之处,从而找到原型容量。我们通过使用标准的Hebbian学习的简单Hopfield网络的实验来证实原型形成的预期。我们将实验扩展到使用多个原型进行训练的Hopfield网络,并发现该网络能够同时稳定多个原型。我们测量了多个原型状态的吸引盆地,发现吸引子强度随着示例数和示例一致性的增加而增加。我们将原型状态的稳定性和优势链接到这些状态的能量轮廓,特别是与目标状态或其他虚假状态的轮廓形状进行比较。
- 图表
- 解决问题本论文旨在解决Hopfield网络中高度相关状态下的记忆性能下降问题,并探讨原型形成的可能性。
- 关键思路通过Hebbian学习,将未学习的状态作为大量相关子集的代表出现,从而形成原型,缓解记忆容量问题。
- 其它亮点论文提供了原型学习在联想记忆中的广泛文献综述,从心理学、统计物理学和计算机科学的角度进行了分析。作者从理论角度推导了稳定性条件,并构建了原型状态的稳定概率。通过实验验证了原型形成的预期,并发现Hopfield网络能够同时稳定多个原型。作者还测量了多个原型状态的吸引盆大小,并将原型状态的稳定性和能量轮廓联系起来。
- 与本论文相关的研究包括:《基于神经网络的原型学习的应用研究》、《基于Hopfield网络的模式分类与原型学习》等。
沙发等你来抢
去评论
评论
沙发等你来抢