原文:Machine Learning Goes Quantum: A Glance at an Exciting Paradigm Shift
作者:Andre Ye(towardsdatascience.com 作者)
量子计算近来成为一个高词频的流行概念,尽管它在大众认知及互联网社区中非常火热,但是它的能力目前仍然相当有限。
作为一个全新的领域,量子计算呈现出基于传统经典计算模式的范式转变。在量子计算中,0 或 1 的经典比特被持某种概率值的量子比特取代。
基于特殊的量子态性质,每当量子比特被测量时都以一定的概率进入 0 或 1 的状态。例如,如果一个量子比特处于 0.85:0.15 的状态,我们预计它在 85% 的情况下测量为零,在 15% 的情况下测量为 1。
量子计算固然还有很长的路要走,但机器学习已是一个特别有前景的潜在方向。下面的示例有助于大家简单了解量子计算可以提供的计算能力:
Ÿ 一个量子比特可以同时包含 0 和 1。因此,两个量子比特可以保存四个值状态:00,01,10 和 11 的值,三个量子比特可以达到八个,依次类推。
Ÿ 理论上,n 个量子比特信息相当于 2n 个经典比特。
除此之外,量子电路的流体概率性质(fluid probabilistic nature)可能为深度学习提供独特的优势,深度学习本身就受益于通过网络进行的概率流和信息转换。
量子机器学习的概念正在流行起来,例如,TensorFlow 是谷歌著名的深度学习框架,最近这个框架也有了其量子版本 ——“TensorFlow Quantum”。
而在本文,我们将介绍三种机器学习算法的量子变体,包括:迁移学习、k-means 和卷积神经网络,并尝试动用尽可能少的量子知识来科普机器学习量子化,以及在设计机器学习量子应用时需要考虑的一些重要事项。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢