Inferring stochastic low-rank recurrent neural networks from neural data

2024年06月24日
  • 简介
    计算神经科学的一个核心目标是将大量神经元的活动与底层的动力学系统联系起来。这些神经动力学模型最好既可解释,又能很好地适应观察到的数据。低秩循环神经网络(RNN)通过具有可处理的动态性,展现了这种可解释性。然而,如何最好地将低秩RNN拟合到由底层随机系统的噪声观测数据中尚不清楚。在这里,我们建议使用变分顺序蒙特卡罗方法来拟合随机低秩RNN。我们在几个数据集上验证了我们的方法,这些数据集包括连续和尖峰神经数据,在这些数据集上,我们获得了比当前最先进的方法更低维的潜在动力学。此外,对于具有分段线性非线性的低秩模型,我们展示了如何以多项式而不是指数成本的效率来识别所有固定点,从而使大型RNN的推断动力学分析变得可处理。我们的方法既阐明了实验记录的动态系统,又提供了一个生成模型,其轨迹与观察到的试验间变异性相匹配。
  • 图表
  • 解决问题
    如何用低秩循环神经网络(RNN)来解释神经元活动的动力学系统?如何在噪声数据中拟合低秩RNN模型?
  • 关键思路
    使用变分顺序蒙特卡罗方法来拟合随机低秩RNN模型,并且针对具有分段线性非线性性质的低秩模型,提出了一种高效的方法来识别所有的固定点。
  • 其它亮点
    该方法在多个数据集上进行了验证,包括连续和尖峰神经数据,并且得到了比当前最先进方法更低维的潜在动力学。该方法不仅阐明了实验记录背后的动力学系统,而且提供了一个生成模型,其轨迹可以匹配观察到的试验间变异性。
  • 相关研究
    相关研究包括使用其他方法来拟合低秩RNN模型,如随机梯度下降和EM算法。相关论文包括“Learning the Dynamics of Nonlinear Systems with Echo State Networks”和“Recurrent Neural Networks with Limited Precision Activations as Locally Competitive Approximators”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论