铁流:量子计算:中国研究组走到了美国前头
2015-12-17 10:40:28
日前,计算机领域上演了一场中美擂台赛。
据俄罗斯卫星网10日消息:“中国学者用一块金刚石建成世界首台量子计算机……这一结果代表了目前固态自旋体系量子操控精度的世界最高水平,研究成果发表在11月25日的Nature Communications上”。就在同日,谷歌推出的D-Wave量子计算机,宣传其在解决问题时能够比其他任何计算机都快出一亿倍。但在2014年1月13日,以美国加州大学的Martinis和Lidar教授为首的研究组,包括Google公司的研究人员,正式宣布:在503个量子比特的D-Wave Two型的量子计算机上的实验数据表明,没有任何量子加速的证据。MIT计算机科学家和量子计算专家Scott Aaronson认为D-Wave是炒作高手,而且认为D-Wave即使推出所谓1000位的量子计算机也不会有什么改变,因为这在原理上也不会再有量子加速的优势。
仅仅时隔一年,为何有如此大的反差,到底是谷歌对科研成果注水,进行商业炒作,还是美国加州大学的专家错了?俄罗斯媒体声称“中国基于金刚石建成的世界首台量子计算机”与谷歌推出的D-Wave量子计算机孰优孰劣呢?
量子计算的基本原理
近年来,传统计算机发展中已经逐渐遭遇功耗墙、通信墙等一系列问题,传统计算机的性能增长越来越困难。因此,探索全新物理原理的高性能计算技术的需求就应运而生。
量子计算是一种基于量子效应的新型计算方式。基本原理是以量子位作为信息编码和存储的基本单元,通过大量量子位的受控演化来完成计算任务。所谓量子位就是一个具有两个量子态的物理系统,如光子的两个偏振态、电子的两个自旋态、离子(原子)的两个能级等都可构成量子位的两个状态——晶体管只有开/关状态,也就是要么是0状态,要么是1状态;而基于量子叠加性原理,一个量子位可以同时处于0状态和1状态,当量子系统的状态变化时,叠加的各个状态都可以发生变化。
举例来说,因为1个量子位同时表示0和1两个状态,7个这样的量子态就可以同时表示128个状态。N个量子位可同时存储2的N次方个数据,数据量随N呈指数增长。同时,量子计算机操作一次等效于电子计算机要进行2的N次方次操作的效果……等于是一次演化相当于完成了2的N次方个数据的并行处理,这就是量子计算机相对于经典计算机的优势。
量子计算机具有极大超越经典计算机的超并行计算能力。例如,求一个300位数的质因数,目前最好的经典计算机可能需要上千年的时间来完成,而量子计算机原则上可以在很短的时间内完成。因此,量子计算在核爆模拟、密码破译、材料和微纳制造等领域具有突出优势,是新概念高性能计算领域公认的发展趋势。
谷歌的D-Wave并非标准量子计算机
标准量子计算机是具有普适性的计算机,可以运行各种各样的算法,类似于经典计算机,电路等效于图灵机模型,可以把图灵机的各种功能用电路来实现。计算机的电路由基本的门来构成。而标准的量子计算机也是有这样的一个概念,是由一系列基本的逻辑门来实现量子电路,进而实现各种算法功能。这种量子计算机被称为具有普适性的量子计算机,而谷歌的量子计算机就没有量子计算机对应的门的概念。
那谷歌宣称“解决问题时能够比其他任何计算机都快出一亿倍”是怎么回事呢?
谷歌的D-Wave
谷歌的D-Wave是量子退火机,算法和一般意义理解的加减乘除的算法是有区别的,一般的算法,比如求开方或求互质是有标准的程序。而蒙特卡罗算法的一个关键步骤就是要形成一些随机数,由随机数去模拟。谷歌的D-Wave模拟了一个量子模型,经过数值分析模拟出量子的势场结构;其量子处理器由低温超导体材料制成,利用了量子微观客体之间的相互作用。因此,其体系是量子力学的。
而量子力学在微观层面上和宏观层面上是有区别的,它可以穿透一些势垒结构——比如有一道高5米,厚0.1米的墙,要翻过去必须有不亚于PLA的身手。但量子力学层面,有一定的概率普通人可以直接穿墙。在经典层面上,用传统计算机来模拟的话,就必须老老实实的去爬墙,而这就是谷歌宣称快1亿倍的原因所在。
换言之,谷歌的量子计算机只是针对特定环节,做特殊算法的计算机。谷歌的退火算法可以在特定的环节、特定的应用中超过传统计算机,但并不具有普适性。
中国量子计算取得突破
杜江峰研究组把金刚石的一个碳原子由氮原子取代,外加氮原子旁边的一个空位,组成了NV色心结构,成为单自旋固态量子计算的载体。基于金刚石体系的固态量子计算有标准量子计算的门操作,是真正的量子计算。
金刚石中NV色心的结构
量子比特可以分为物理比特和逻辑比特。物理比特并不稳定,可能现在有10个物理比特,但很快就丧失了。因此,不得不通过纠错码过程对10个物理比特做冗余,最后生成了一个逻辑比特,逻辑比特有很好的容错特性。
量子计算要产生相对于传统计算的足够优势,有效的逻辑比特的数目必须要大于30的情况下才行,要做出真正的量子计算机则需要几百上千物理比特。而量子技术需要利用量子相干性才可以做计算,但每个量子比特都非常脆弱,很容易被环境退相干,使量子的相干性丧失,而且退相干的速度随着体系的扩大而呈指数增加,量子比特越多,退相干速度越快。
这时候就必须采用纠错码技术,鉴定噪声的可能状态,在假定了噪声特性的基础上,构建纠错码系统,构建纠错容错的理论体系。
其实,传统计算机也会发生计算错误,但可以通过纠错码计算。而量子计算机也是这样,如果能够达到容错预值(容错预值不仅仅是对操作精度,对噪声的总体水平有一个约束的关系)——外界噪声低到一定水平,操作达到一定精度之时,就可以满足容错计算。
杜江峰研究组在传统的纠错码下达到了非常高的操作精度,量子逻辑门精度达到了99.99%,其单比特门精度已经满足容错计算的需求。
NV 色心 GSD 成像实验平台
要构建量子计算机,下一步的工作就是系统扩展,把成百上千的逻辑比特都达到满足容错计算的精度,那量子计算就可以实现了。但系统扩展难度非常大,建成量子计算机任重道远。因此,虽然杜江峰研究组确实取得了关键技术突破,但俄媒报道“中国学者基于金刚石建成世界首台量子计算机”显然是夸大其词。
中美量子超算孰优孰劣
杜江峰研究组基于金刚石体系的固态量子计算是开创了一个新体系,但其NV色心可集成性远远不如量子点系统和超导系统,离建成真正的量子计算机还有相当漫长的路要走。
量子点系统、超导系统具有可集成性,但操作精度远远达不到量子计算的要求——而这也是谷歌之所以研究量子退火,而非标准量子计算机的原因。而借助超导体系已有的相对成熟的超导电子学,谷歌可以比较容易集成数量较多的量子位,但选择了这条路也意味着谷歌不存在用量子退火机“升级”,制造出量子计算机的可能性。
因此,就构建标准量子计算机而言,杜江峰研究组显然是走在了谷歌前头。
但中科大和谷歌并非中美两国唯一研究量子计算的科研单位——清华大学正在研究离子和核自旋的量子计算;国防科大和中科院武汉物理数学所正在研究离子系统的量子计算;南京大学正在研究基于超导材料的量子计算,这些单位都建成了相应的实验平台,具备了开展高水平研究的条件。而美国IBM也在量子计算机领域深耕多年(非谷歌的退火机,是真正的量子计算机)。在此情形下,断言中美量子计算孰优孰劣还为时尚早。