- 简介深度神经网络(DNN)通过从大规模数据集中学习复杂的非线性映射,已经在各个领域取得了卓越的性能。然而,它们面临着高计算成本和有限的可解释性等挑战。为了解决这些问题,将物理与人工智能相结合的混合方法正受到关注。本文介绍了一种新型的基于物理的人工智能模型,称为“非线性薛定谔网络”,它将非线性薛定谔方程(NLSE)作为一种通用的可训练模型,用于从数据中学习包括非线性映射和记忆效应在内的复杂模式。现有的物理启发式机器学习方法使用神经网络来近似解偏微分方程(PDE)。相比之下,我们的方法直接将PDE作为可训练模型来获得一般的非线性映射,而不需要神经网络。作为一种物理启发式方法,它提供了一个更可解释和参数高效的替代传统的黑盒神经网络,在时间序列分类任务中实现了相当或更好的准确性,同时显著减少了所需的参数数量。值得注意的是,训练好的非线性薛定谔网络是可解释的,所有参数都具有物理含义,作为将数据转换为更可分离空间的虚拟物理系统的属性。这种可解释性允许深入了解数据转换过程的基本动态。还探讨了对时间序列预测的应用。虽然我们目前的实现利用了NLSE,但使用物理方程作为可训练模型从数据中学习非线性映射的提议方法并不局限于NLSE,可以扩展到物理的其他主方程。
- 图表
- 解决问题论文介绍了一种新的物理引导的人工智能模型,旨在解决深度神经网络在高计算成本和有限可解释性方面遇到的挑战。
- 关键思路该模型将非线性薛定谔方程作为通用可训练模型,直接将偏微分方程作为可训练模型,以获得通用的非线性映射,从而提供了一种更可解释、更高效的替代传统黑盒神经网络的方法。
- 其它亮点该模型在时间序列分类任务中实现了可比或更好的准确性,同时显著减少了所需的参数数量。该模型具有可解释性,所有参数都具有物理意义,可以深入了解数据转换过程的基本动态。该方法不仅限于非线性薛定谔方程,还可以扩展到其他物理主方程。
- 最近的相关研究包括使用神经网络近似解决偏微分方程的物理启发式机器学习方法,以及使用物理方程作为先验知识的深度学习模型。
沙发等你来抢
去评论
评论
沙发等你来抢