我们为什么需要量子计算?

本文来自微信公众号:返朴 (ID:fanpu2019),作者:无邪

作者按

实际上关于量子计算的科普文不少,我原来也写过,不过本篇的视角还是略有不同的:我们为什么需要量子计算?它为什么在最近几年才引起这么大的关注?如果能回答这些问题,或许能让一些人释然:量子计算不是科学家们的狂想曲,而是应运而生的,是这个时代的产物。正如量子力学和相对论是人类在二十世纪人类留下的光辉印记,量子计算,或许也会成为人类在二十一世纪留下的另一个永世流传的烙印。

我们生活在计算的时代

人类对计算能力的渴望是永无止境的。自从结绳记事以来,计算能力的提升就与文明的进步息息相关,古希腊的毕达哥拉斯学派甚至将其奉为真理。今天的我们对计算所带来的好处已经太习惯了,以至于大多数人忽视了它的伟大。当我们在屏幕上滑动,输入一个关键字,搜索引擎弹出我们想要的结果,这些操作可以在几秒钟内完成,有多少人知道这背后经历了多少“计算”?我们在乐呵呵流着哈喇子刷着小视频的时候,有多少人知道机器此时正在拼命计算着下一条该推那条视频给你?在疫情形势严峻的当下,我们每个人都配合扫码、查核酸,又有多少人能感知到“计算”在抗疫中的丰功伟绩?如今,我们的计算能力达到巅峰,机器攻克了人类引以为傲的最后一座智力堡垒 —— 围棋,接下来,机器还试图征服自动驾驶,征服元宇宙。可以说,我们生活在一个计算的时代。

印加文明的结绳记事:奇普

今天超强的计算能力,得益于一种被称为“晶体管”的非线性元件,它由大自然中最为平凡的材料 —— 硅制成,却浓缩了人类最顶尖的智慧。它遍布我们身边的每一个角落,却诞生于最干净的无尘工厂。它如此快速地改变着我们的生活,如今我们中国人却发现受制于人。这,就是芯片。

在顶级的硅半导体的芯片中,数百亿个晶体管遵循这一种被称为“布尔代数”的二进制逻辑进行运算。这种逻辑并不高效,但非常灵活而通用,以至于在经历了五十余年以摩尔定律的指数级速度增长后,灭掉了所有对手,几乎成为了唯一的计算工具。

摩尔定律从提出至今已经有五十多年,直到今天依然有效,与之相应的计算能力也呈指数级增长。随着晶体管的尺寸越来越小,逼近纳米级别,摩尔定律迟早会终止,这其实是老生常谈了。我想说的是,在今天的互联网时代,即便摩尔定律长期有效,实际上算力的发展也远跟不上互联网上数据膨胀的速度了。我们能够通过计算从互联网中挖掘的信息量,与互联网实际包含的信息量相比,将少得可怜。如果我们将数据想象成一座矿山,而将算力想象成挖矿机的话,那挖矿机在矿山面前将变得越来越渺小。在这种情况下,人类对超越当前范式的新算力需求,就呼之欲出了。在这个背景下,我们也就能够理解像谷歌这样的公司,为什么会那么关注量子计算,不惜亲自下水。因为它拥有着那座矿山。想象一下坐在金矿上却没有工具只能用手抠的感受吧!

摩尔定律五十年

量子计算照进现实

说了这么多,话题终于引到量子计算上来了。很多人听到量子就容易与神秘现象联系起来,什么既是波又是粒子,什么瞬间移动之类的,其实大可不必。我与人谈论量子的时候,最怕陷入虚无主义、认知论等讨论中去,因为我实际上是一个做实验的,不是搞哲学的。我喜欢站在实用主义的角度去看量子:它准确地描述了物质底层的行为模式;它到现在仍是非常准确的。那好,我们就看看在量子的规则下,我们能做哪些超乎寻常的事?用量子来做计算,绝对算得上上个世纪一个最大胆的想法,因为在那个年代,对量子世界的掌控能力与现在有着天壤之别,以至于最初几个重要的量子算法,包括 Shor 算法呀,Grover 算法呀,实际上都是数学家搞出来的 —— 他们把这个当成一个数学玩具在研究,从没想过实现的事儿。

进入 21 世纪,情况就大不相同了。2012 年的诺贝尔物理学奖授予了 Serge Haroche 和 David J. Wineland,以表彰他们在“测量和操控独立的量子系统方面的突破性实验进展”。他们首次将原子捕获,并利用光与原子的相互作用实现了对原子量子态的操控和测量 —— 这实际上就是离子阱量子计算的开端。这项工作打开了操控和读取量子态的大门,也为物理上实现量子计算点燃了希望之火。从此,量子比特、量子门、量子计算,不仅仅停留在数学和理论阶段了。

2012 年诺贝尔物理学奖获得者

世纪之交,还有一个很重要的突破。日本理化研究所的蔡兆申研究组首次在一个超导“小岛”上,发现了量子振荡现象。与 Haroche 和 Wineland 的工作最大的不同之处在于,此时的量子系统,是一个“宏观量子系统”—— 宏观量级的电子共同参与了整个量子过程。这种“超导库珀对盒子”,正是如今最受关注的量子计算候选者之一 —— 超导量子计算的前身。宏观量子系统容易操控,容易读取,而且它的制作过程与半导体芯片很大程度上具有兼容性,这就导致了在后续十多年里,这种体系爆发出了超强的生命力。

宏观量子比特:库珀对盒子丨来源:Nakamura, Y., Pashkin, Y. A. & Tsai, J. S. Coherent control of macroscopic quantum states in a single-Cooper-pair box. Nature 398, 786–788 (1999).

早期的超导量子比特,包括上面讲到的“库珀对盒子”,以及磁通量子比特、相位量子比特,解决了很多与操控、耦合、读取相关的技术问题,但他们一直受困于一个重要的指标 —— 退相干时间(量子“寿命”)。退相干时间是指一个体系量子性消失并趋于经典体系的特征时间。我们知道,任何体系都不可能是完全孤立的,否则这个体系跟不存在一样,作为一个能够做“计算”的量子比特,就更不可能是孤立的,它必须与外界发生相互作用,否则我们怎么去操控它、测量它呢?而有相互作用,就必然会导致量子信息的丢失。自然界的粒子,如原子,可以拥有很长的寿命,他们只与光子有非常微弱的相互作用,这也就变成了一把双刃剑:因为相互作用弱,所以量子性很强;同时也正因为相互作用弱,我们也很难对它做操控和测量。这样也就部分理解为什么 Haroche 和 Wineland 的工作能拿诺贝尔奖了 —— 的确太难了。

超导量子比特的处境则正好是反过来的,构成量子比特的超精细能级是宏观数量库珀对的集体行为引起的,它处在更宏观的固体系统中,这里的环境比单个原子的处境就差多了。来自不知何处的光子、残存的电子、外部电磁场扰动引起的电荷、磁场变化,都会对量子比特造成影响。加上它是一个宏观自由度,所以与这些外部自由度的耦合强度也很强,导致了量子比特的信息在极短的时间内就丢失了。却也正因如此,我们通过电磁场调控的手段,也可以在极短的时间内操纵和读取它们,快到来不及说“拔呀拔呀拔萝卜……”

退相干时间问题到 2007 年的时候迎来了转机。当时领域内的科学家已经注意到了增加电容对抑制电荷噪声的作用,而耶鲁大学的 Koch 等人、我国的游建强几乎同时、分别在库珀对盒子和磁通量子比特体系中,系统地研究了增加旁路电容对退相干时间的提升效果,前者就是目前广为流行的 transmon 量子比特。从此以后,超导量子比特的退相干时间迅速登上 10 微秒到百微秒量级,与 10 纳秒量级的操控时间相比,这是一个非常长的时间了。紧随其后,加州大学圣巴巴拉分校的 Martinis 组,迅速提出了基于 transmon 量子比特的可扩展方案和系统的电子学解决方案,为超导量子计算步入工程化奠定了基础。后面的故事,就是这个组加入了谷歌,并为谷歌打造了“Sycamore”芯片,创造了量子霸权这一轰动性的里程碑。这个故事可以单开一期,先按下不表。

Google 的 Sycamore 芯片(来源:wikipedia.org)

总之,走到今天,量子计算已经从数学家的玩具、理论物理学家的设想,逐渐转变为现实。这其中有大量实验物理学家和工程师们的努力,难以为外人道。无论如何,有了这些实验、技术上的进步和积累,我们才有资格高谈阔论量子计算的未来,才有底气吹嘘量子计算将如何碾压传统计算。接下来,开吹!

量子计算之神威

比特的概念源自香农的信息论,有资料显示这一概念在更早的时候(上世纪 40 年代)为数学家所创。它用来表示二进制代数逻辑下的最小信息单元。在传统的计算机中,信息就是以比特为单位进行编码、处理、传输和获取的。到了量子世界,信息的最小单位就成了量子比特,它同样是信息编码、处理、传输和获取的单元,只不过现在是在量子的领域内进行。逻辑上,它是一个可相干叠加的两态系统;物理上,它是某个可区分的(准)二能级系统。多个量子比特在一起,可以形成复合系统,如果它们之间能够纠缠起来,那就是见证奇迹的时刻了。

克劳德・香农,信息论的创始人丨来源:网络

纠缠,是量子世界所独有的。它隐藏着非常深刻的物理,到现在也无法彻底理解,但我们已经通过大量的实验来确认了它的存在。以两个量子比特形成的复合系统为例:这个系统可以处于某种量子态,此时将它们当成整体来看,系统是量子的,但一旦单独去看某一个量子比特,系统就不再是量子的。换言之,复合系统只能当做整体来看,从它的子系统上是得不到信息的。从数学上讲,纠缠系统张开了一个更大的直积空间,而这个直积空间的维度是随比特数指数增长的。在这里列举几个恐怖的数字:当 N=50 时,这个空间的维度大约相当于现在最先进的超级计算机一秒的计算次数;当 N=300 时,维度已经超过了整个已知宇宙中所有的原子总和(一杯水中大约有 1023 个原子)。

纠缠所带来的这种恐怖的维度扩张,为计算问题提供了巨大的编码空间,使得某些问题可以在更高维度上寻求更高效的解决路径。传统计算机及理论经过百余年的发展,已经能够高效解决很多问题,但仍有很多问题无法解决,比如说天气预报,股票价格,癌症药物…… 如果这些问题都能准确计算,那我们的世界将变得特别美好,或许也特别无聊。比如说我们可以准确算出国足将在下一场比赛中以几比几输球。不幸的是,量子计算也不能解决这些问题。好么,那我们费那么大劲干嘛?!别急,我们已经发现某些问题可以在量子计算框架下以惊人的效率解决,并且这些问题还具有非常的意义。

其中一个,就是大名鼎鼎的 Shor 算法。当今的互联网上,我们浏览网页,输入用户名密码,怎么保证不被别人偷看去呢?我们的银行卡密码又怎么防止别人窃取呢?有人说,捂着点。实际上,在互联网上,如果没有加密系统的保护,这些信息几乎是透明的。互联网的另一个特点是,信息可以瞬间传到地球任何一个角落:偷看你密码的人,或许此时在毛里求斯扣着脚喝着椰汁。传统的点对点加密是不适用于互联网的,随着节点数的增加,光存密码都会是个灾难。一种非对称加密体系 ——RSA 密码有效地解决了这个问题。所谓非对称,是指加密和解密所用的密钥是不同的:一个私钥,用来解密;一个公钥,用来加密。公钥是公开的,任何人都可以获取。假如李四想传个不可描述的资料给张三,他需要用张三公布出来的公钥来加密,张三收到后,用私钥打开,就可以享用了。这时候假如有个王五在暗地里觊觎这些资料,对不起,尽管他手里也能搞到公钥,但没有私钥是无论如何也打不开的。由于任何人想与张三通信都可以共用一份公钥,所以这种加密体系大大节约了所需的密钥资源。

这种加密体系为互联网保驾护航很多年,极少出错。而它的加密原理,则源自一个数学上的发现:大数不可分原理。两个已知的大质数,把它们相乘得到一个更大的数,一个细心的初中生就能算出结果来。但是反过来,我告诉你乘出来的结果,问你是由哪两个质数相乘而来的?顶级的数学家也得傻眼。目前人类取得的最傲人战绩是 RSA-768 的破解,请看:

1230186684530117755130494958384962720772853569595334792197322452151726400507263657518745202199786469389956474942774063845925192557326303453731548268507917026122142913461670429214311602221240479274737794080665351419597459856902143413

=

33478071698956898786044169848212690817704794983713768568912431388982883793878002287614711652531743087737814467999489

×

36746043666799590428244633799627952632279158164343087642676032283815739666511279233373417143396810270092798736308917

而目前普遍采用的是 RSA-1024,以及 RSA-2048,后面的数字是指数,由于这个问题的破解难度是随问题规模指数增加的,现代计算机只能高山仰止,望尘莫及。

Shor 算法得益于量子傅立叶变换的指数级加速,可以将上述问题在准多项式难度下解决,原本需要百万年的破解时间,直接降到秒量级 —— 降维打击。Shor 算法实力恐怖,但在二十世纪并不会成为一个问题:想实现 Shor 算法,以当时的技术来看,比登火星难。

现在的情况却不同了,前面已经啰嗦过了。大家都害怕,因为在密码界,一个最为困扰的问题就是:你永远不确定你的密码是不是已经被破了。此外,现在不能破的密码,是可以保存起来的,哪怕二十年后破掉了,杀伤力也是很足的。因此,Shor 算法的出现,特别是技术实现的可能性出现,迫使人们积极寻找新的加密形式。中国偏向于量子通信,在这方面领跑全球,美国人则压后量子密码学,欧洲人都不想放…… 总而言之,这是个迫切需要解决的问题,任何一方先搞定破解之法,国际制衡都将瞬间打破,后果不堪设想。

另外一个有用的量子算法是 Grover 算法:在无结构数组中搜索目标,比经典算法快根号 N 倍,N 是数组的长度。这个加速能力相比 Shor 算法来说就是小巫见大巫了,但或许这个算法更为有用,因为搜索问题是解决很多问题的基础,也是挖掘信息的重要手段。当 N 非常大时,这种算法的收益是非常显著的。如今互联网上每时每刻产生的海量数据,不正对应这 N 非常大的情况吗?

长路漫漫

牛皮吹完了,还要面对现实:上述两种算法,以及它们的衍生算法,对操控和读取错误率的要求极其高,几乎就是要求量子比特是完美的,不会出错的。问题是,任何的物理体系,都是会出错的,任何的实际操作,都是有精度的。我们可以通过制造一定的冗余来实现纠错,这也是早期传统计算机研究过程中的一个重要主题。有意思的是,现在的半导体芯片,出现误码的概率如此之低,以至于纠错变得完全无必要了。正当这些纠错理论遗产要丢失时,量子计算跑来继承来了。

量子纠错是实现量子计算的一个重大挑战,短期内难以实现,哪怕我们找到诸如表面编码这种拓扑码纠错技术,能够将纠错的要求降低到当今技术可接受的水平。这是一个非常庞杂的科学、工程交叉问题,只有当比特数达到 1000 的规模,同时操控、隔离、读取等技术同步进展,到时候或许我们可以真正直面这个问题。(可参见《量子计算的下一个超级大挑战》)

在这期间内,我们是不是应该耐心等待量子纠错的突破到来呢?实际上大家都不是这么做的。目前,整个领域内的科学家和工程师们,将更多的精力放在“含噪声中等规模量子计算(NISQ)”上。这个思路,是根据当前量子硬件的水平,允许噪声的存在,有针对性的寻找有实际应用价值的量子算法或量子模拟方法。所以目前的研究热点是基于经典-量子混合计算的变分量子算法(VQE)、量子近似优化算法(QAOA)等,它们的应用场景包括量子化学计算、金融组合优化、人工智能等等。一旦在某个应用领域实现了量子优势,我们对量子计算的信心就能持续下去,吸引更多的资金和人才加入,进而攻克量子纠错等难关。

路漫漫其修远兮!吾将上下而求索。量子计算是一条艰难的路,我们冲在最前面,也看不清前进的方向。也许我们会闯入迷津,拔剑四顾心茫然,也许我们会斩开迷雾,遥看前路在脚下!有人觉得这是国与国之间的较量,我更觉得这是人类精神的闪耀。我们或许会失败,但不会低头。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享