Distributed Representations Enable Robust Multi-Timescale Symbolic Computation in Neuromorphic Hardware

2024年05月02日
  • 简介
    本文描述了一种单次权重学习方案,通过利用高维分布式表示的特性,将鲁棒的多时间尺度动力学嵌入基于吸引子的循环尖峰神经网络(RSNNs)中,以解决编程RSNNs以鲁棒的方式执行多时间尺度计算的难题。我们通过叠加对称自联想权重矩阵和非对称转移项将有限状态机嵌入RSNN动力学中,每个转移项由一个输入的向量绑定和状态之间的异联想外积形成。我们的方法通过高度非理想权重的模拟、实验性闭环记忆电阻硬件设置和在Loihi 2上进行验证,无需进行参数微调或显著的平台特定优化,就能将鲁棒的符号计算通过循环动力学嵌入神经形态硬件中。此外,本文还证明了分布式符号表示是神经形态硬件中认知算法的高度能力表示不变语言。
  • 图表
  • 解决问题
    如何将多时间尺度计算嵌入到吸引子型RSNN中,是本文试图解决的问题。
  • 关键思路
    本文提出了一种单次权重学习方案,利用高维分布式表示的特性,通过将有限状态机嵌入到RSNN动力学中,将稳健的多时间尺度动态嵌入到吸引子型RSNN中。
  • 其它亮点
    本文的方法经过高度非理想权重的模拟验证,同时还在实验闭环存储器硬件设置和Loihi 2上进行了验证,能够无需参数微调或显著的平台特定优化,将稳健的符号计算通过循环动力学嵌入到神经形态硬件中。
  • 相关研究
    最近的相关研究包括“Neural Turing Machines”和“Differentiable Neural Computers”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论