图片

论文链接:https://arxiv.org/pdf/2302.09019.pdf

张量网络(TNs)和神经网络(NNs)是两种基本的数据建模方法。TNs通过将指数维数转换为多项式复杂度,被提出作为大规模张量面临的维数灾难的解决方案。因此,它们吸引了量子物理和机器学习领域的许多研究。另一方面,神经网络是受构成人类大脑的生物神经网络启发的计算系统。近年来,神经网络及其变体在计算机视觉、自然语言处理和机器人研究等各种应用中取得了卓越的性能。有趣的是,尽管这两种类型的网络来自不同的观察,但它们通过TNs和NNs共同的内在多线性结构不可避免地联系在一起。因此,出现了大量关于TNs和NN结合的思想火花。将"张量网络与神经网络"的组合称为张量神经网络(tensorial neural networks, TNNs)。本文从三个方面对TNNs进行了介绍。1)网络压缩。TNs可以大大减少神经网络中的参数,满足构造有效神经网络的思想。2)信息融合。TNs可以自然有效地增强神经网络的能力,对多种模态、视图或各种数据来源之间的相互作用进行建模。3)量子电路仿真。TNs可以帮助设计和模拟量子神经网络(QNNs)。本综述还研究了改进TNN的方法,研究了用于实现TNN的有用工具箱,并试图记录TNN的发展并强调其潜在的未来方向。据我们所知,这是第一次将神经网络、TNs和量子电路之间的联系联系起来的全面综述。我们在https://github.com/tnbar/awesome-tensorial-neural-networks上提供了一个精心策划的TNNs列表。

内容中包含的图片若涉及版权问题,请及时与我们联系删除