Exploiting the equivalence between quantum neural networks and perceptrons

2024年07月05日
  • 简介
    本文探讨了基于参数化量子电路的量子机器学习模型,也称为量子神经网络(QNN),是在近期量子设备应用中最有前途的候选模型之一。我们通过利用从具有输入$x$的QNN到作用于$x \otimes x$(推广到复杂输入)的经典感知器的精确映射,探索了QNN的表达能力和归纳偏差。感知器架构的简单性使我们能够清楚地说明当前QNN模型的缺点,以及它们成为有用的通用学习算法所面临的许多障碍。例如,幅度编码的QNN无法表达$n\geq 3$的布尔奇偶函数,这只是这种QNN无法表达的指数数量的数据结构之一。将QNN映射到经典感知器简化了训练,使我们能够系统地研究其他更具表达力的嵌入在布尔数据上的归纳偏差。几种流行的嵌入主要产生对低类平衡函数的归纳偏差,与深度神经网络架构相比,它们的泛化性能降低了许多。我们探讨了两种超越标准QNN的替代策略。在第一种策略中,我们使用QNN来帮助生成类似于深度神经网络的经典DNN内核。在第二种策略中,我们将其类比于深度神经网络的分层结构,并构建一个分层的非线性QNN,在布尔数据上被证明是完全表达式的,同时还具有比简单QNN更丰富的归纳偏差。最后,我们讨论了QNN文献的特点,这可能会掩盖在经典数据上实现量子优势的难度。
  • 图表
  • 解决问题
    本论文旨在探索量子神经网络(QNN)的表现力和归纳偏差,以及其在成为实用的通用学习算法方面面临的障碍。
  • 关键思路
    通过将QNN映射到经典感知器,论文简化了训练,并发现了当前QNN模型的局限性。论文提出了两种超越标准QNN的策略:使用QNN生成类似于深度神经网络的内核,以及构建分层非线性QNN。这两种策略在布尔数据上都表现出更丰富的归纳偏差和更好的泛化性能。
  • 其它亮点
    论文发现,许多流行的嵌入方式主要对低类平衡函数产生归纳偏差,从而降低了它们的泛化性能。论文还探讨了QNN文献的特征,这些特征可能会掩盖实现量子优势的难度。
  • 相关研究
    最近的相关研究包括“Quantum Machine Learning”(Biamonte等)和“Quantum Neural Networks”(Schuld等)。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论