科技行者

转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网网络频道中国科学院院士郭光灿:量子信息与计算的未来

中国科学院院士郭光灿:量子信息与计算的未来

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

2017年6月16日,由中国电子学会主办、至顶网等协办的第九届中国云计算大会进入第三日,中国科学院院士郭光灿出席本次大会,并做了《量子信息与计算的未来》的主题演讲。

来源:至顶网网络频道 2017年6月16日

关键字:量子计算 第九届中国云计算大会

至顶网网络频道 06月16日 北京: 2017年6月16日,由中国电子学会主办、至顶网等协办的第九届中国云计算大会进入第三日,中国科学院院士郭光灿出席本次大会,并做了《量子信息与计算的未来》的主题演讲。

中国科学院院士郭光灿:量子信息与计算的未来

郭光灿指出,量子计算是量子信息领域的主流研究方向。量子计算机的研制已经到了关键时刻。多年来美国政府实施了完整的量子计算研究计划(包括硬件、软件和材料),现在已经十分见效,其标志不仅是研究水平领先于国际,更重要的是吸引国内各大公司(IBM, Google等)参与到研究行列,这无疑将会更有效地推进量子计算机的研制和应用。

以下是郭光灿演讲实录:(内容根据现场速记整理,未经发言嘉宾确认,仅供参考,谢绝转载)

郭光灿:很高兴到这会上作一场报告,这是一个未来的云计算的另外平台,所以还在研制当中。所以我今天报告的题目叫量子计算机。想讲这几个问题:第一个量子计算机是怎么诞生的,第二个量子计算的基本原理,第三个量子研制当中遇到的最大困难是什么。第四个介绍一下发展状况、现在究竟做到什么程度,第五个结论。

实际上计算机的运算处理能力越来越大,大到什么地步呢?大到现在的计算机处理能力相当于老鼠的大脑数据处理能力,但是还没有达到人的大脑处理能力。这就是摩尔定律的一个曲线,中间是80年代有物理学家在摩尔定律辉煌发展的过程当中就提出一个物理问题,这个问题叫做摩尔定律有没有终结会不会死掉,还是这么永远发展下去,这当然是一个物理问题。有物理学家就研究,研究的结论是说摩尔定律一定会终结。摩尔定律的技术基础是不断提高电子芯片的集成度。这个技术基础受到两个主要物理限制:

1. 芯片的发热(巨大耗能),甚至烧穿;

2. 终极的运算单元是单电子晶体管,量子效应起主要作用。

芯片的集成度来提高运算速度,晶体管小到就是像一个电子不能再小的,一个电子就不再遵从经典物理,不再遵从摩尔定律它遵从量力学。这个量子效应就会阻碍芯片继续下去,让芯片不可能正常运行。

这两个原因物理学家得出结论摩尔定律一定会终结,但是摩尔定律还在发展,所以微电子计算机根本认为物理学家是杞人忧天不会发生,但是物理学家继续提第二个问题,一旦这摩尔定律终结了,如果人类还想提高运算速度还有什么办法,他们就想出量子计算机。所以量子计算机是这样诞生的。

当然到了现在摩尔定律是不是终结了?摩尔定律已经终结了。微电子的发展方向是朝着低能耗专用性发展。所以这一步提高当然还有各种办法的延长摩尔定律的寿命但是一定会终结。于是量子计算机就成为大家很关注一个新的研究方向,那实际上物理学家上个世纪80年代已经开始在基础研究。

第一个提出量子计算机的概念是费曼,英国物理学家D. Deutsch提出“量子图灵机”的概念。“量子图灵机”可等效为量子电路模型。量子计算机基本的工作原理就是量子的特性来开发出电子计算机做不到的功能。什么是量子特性,就是量子态的叠加,量子非局域性,量子不可克隆性。我们量子所有的运动状态去确定,一个时间只有一种状态,我们的信息去确定的要么0、要么1。量子世界的一个特点是概率性不确定的,这一些量子世界跟经典最大的区别。所以在量子世界里你说0或者1,经典说要么0要么1,两个选一个。量子说不,我不确定,所以我两个一块选。所以量子的态取在什么状态取在0和1这个态,叠加以后那个态,这就是量子的特点。这个量子态我们就叫量子比特。量子信息或者量子计算机就拿这叠加的0和1同时存在的这状态,作为整体,作为信息的处理单元,我们叫做量子比特。

量子计算机也是如此,比如说我们有一个存储器,N个处理器,电子计算机存储器,一个时间只存一个数,它是确定的。量子存储器它是不确定,一个时间可以存多少个数,2个的N次方的数,它的数据同时存这么多,因为它不确定带来的好处。计算是什么呢?计算就是我们编完程以后我们操作的时候把存储在数据里面一个数据操作到另一个数据,一步一步操作。电子计算机因为它存储器从一个数,所以我操作一次就把这个数变成另外一个新的数,再操作一次再变一个数,我们编程解完了所有运算完了把函数算出来,我们的过程就是一步一步算,这个叫做串行运算,所以电子计算机是串行运算。

电子计算机量子存储器可以存2个的N次方数据,我对它操作一次,可以把2的N次方数据变成另外的2的N次方数据,所以我操作一次同时处理这么多数据这叫做并行运算。所以量子计算机跟经典计算机最大的不同利用不确定性导致一个新的性能叫做并行运算。你说我电子计算机也有并行,对的那是硬件并行,就是多个CPU的并行。

而量子并行一个CPU本身就内在的并行,这是最大的不同。比如说一个量子计算机N,就是处理器的数目或者量子比特的数目,假设是300个,它的并行能力如果拿电子计算机多个CPU多个并行相当要多少个CPU,所要CPU的数目跟整个已做的原子数还要多,所以你根本做不到,这就是量子计算机它的运算能力是没法超越的内在原因。

所以我们对N个量子存储器做一次操作它的效果相当于对经典存储器做2的N次方,这是量子计算机最大的并行运算能力,如果做合适的量子算法,这个能力就可以大大的提高计算机运算速度,这样在电子计算机处理慢量子处理快。最典型的一个例子就是Shor算法,提出一个Shor算法非常有名。他举一个例子说大数分成两个术数,因为这个问题是很敏感的问题,是现在公开密钥安全性的基础。如果大数能够分成两个术数密钥就破了,如果分不出来那就安全的。大数运算分数实际上是一个很难的问题。所以在电子计算机的领域里穿行运算的模式里是很难分的,1994天我们一个大数是129位,要分成两个术数全世界合作用了1600台工作站就是硬件并行,多个CPU的并行花了8个月把两个数分出来。所以大数分成两个术数电子计算机协调能做,就是代价太大,需要时间太长。但是还能分,但是如果把N变成500位这个数,从129变成500位,同样运算能力要花多长时间,所花的时间比宇宙的年龄还要长,所以用这么长的时间把密钥破了就没有价值,这可以破但是代价太大,你计算机运行太高数拉的长一点你根本跟不上我。但是Shor说我的算法出来你用我的算法,用我的量子计算机一秒钟我就能把129位破了,但是我要500位加到1000位Shor说没关系,电子计算所需要的时间是指数上升,而我需要的多项是上升,多项是在计算里可以解,所以一旦量子计算机做出来,不管是大数公开的密钥所有的公开必要都要被迫。Shor说这事的时候,大家还不赞同。为什么呢?大家还不知道量子计算机能不能做出来,所以大家不着急,公开密钥照用,但是量子计算机是引起大家的关注了。大是最近就不同了,最近大家已经看到量子计算机有可能在不长的时间里做出来,于是美国政府就决定要逐步的废除公开密钥的使用,一旦要做出来就是无密可保,所以他们提倡一个新的研究方向就是让数学家们寻找一个能够对抗量子的计算机攻击的新的公开密钥这已经搞了十年,到现在还没搞出来,但是一旦搞出来,我相信数学家很聪明,一旦搞出来我们的保密通讯或者信息的保密就有新的。这个Shor就举了一个例子,量子计算机实际上是一个人类可以掌握的最强大的运算能力的工具,而破密码只是一个简单的例子,有这样的工具就可以做非常多想象不到的事。

所以我要说的是量子计算机的运算能力以及并行运算它的能力和电子计算机能力相比,相当于电子计算机的运算能力和算盘一样。所以人类从算盘的时代到现在的电子计算机时代整个社会发生天翻地覆的变化大家都感受到了。但是你想想如果从电子计算机时代再变成量子计算机时代,人类将会有另外一个天翻地覆的变化。所以大家说量子计算机是一个颠覆性的技术就是这道理。所以它将会带来很大变化,我就不详细讲。

它的跟量子计算机一样就是算题我要解函数,所以它还是输入数据最后把函数算出来,所不同的就是处理数据的过程中,电子计算机用电子芯片穿行运算,一步一步穿,量子计算机用量子芯片并行运算非常快,就是这不同。所以其他的目的、目标都是一样,这是两个相同的,所处理的方法不同用量子这种并行的运算特点。这样就导致所有的软件都要发生变化,硬件变化要量子算法,要量子编程,一是量子计算的研究包含两方面,一个是量子硬件、量子芯片、量子控制、量子测量。量子软件包括量子算法、量子编程、量子体系、结构,和量子机器学习等等,这属于软件。硬件软件两手抓最后就会形成量子计算机的用途。

量子计算机现在通用或者大家追求的目标就实现通用量子计算机,也有各种量子受控门,单比特门等等,构成量子限度处理任何问题,这就基于图灵机标准的量子计算,所以我们说量子计算主流在这儿。比如说要多少处理器才称得上通用处理器,一个芯片上一千个量子比特,还有各种条件都要满足,你才能做通用计算机,现在很困难。于是人们就想别的办法就各种各样派生,我们变一个花样让这难度降低,让我更早做出来,所以提出各种的新兴量子计算机,比如说单向的用光子计算,我做一个平台,做一大堆光子输出就是我的函数接口,这里碰到的一些问题,还有分布式,说我一个芯片一千个做不出来,我要做个十个行不行,十个芯片做出来了,然后每一个芯片做出来构成一个分布网络这叫分布量子计算相当于也可以做这是一条路,当然这是有另外的困难,光子跟芯片之间怎么交换怎么强耦合这是新的问题。

还有一种拓扑计算还有绝热计算等等,所有的花样它们碰到的困难并不比标准这种量子计算的模型差多少,所以大家觉得还是很困难,所以量子计算机发展遇到了很多的困难。最大的困难是什么?最大的困难是量子计算机实际上是人工制造的宏观尺度的一个量子器件,宏观尺度量子器件非常难以保留它的量子性,为什么在宏观看不到,不需要用量子学,物体所有都是经典。所有的环境都会破坏它,环境就是做的非常好,还有真空,真空在量子世界里是一个噪声源,这噪声会把量子计算机相关性破坏掉,所以你辛辛苦苦制造一套量子计算机用不了多长时间,几个微妙,几个毫秒就自动成为电子计算机,你的并行能力全部消失掉你题目还没算完这就死掉,所以在宏观的尺度下怎么保持量子相关性,当Shor算法出来以后,整个搞量子计算机物理学家非常兴奋我终于找到量子计算机可以用,但是一想到宏观这种消相干环境存在,而且我没有办法不可逆,怎么都消除不了就凉了半截,觉得量子计算机只是一个纸上谈兵,根本不可能做出实际的应用来。为什么?你没办法看消相干,你没有办法保护量子性。当然电子计算机用电子管的时候,也有一个消相干的问题,电子管我不让它通,但是如果来一个宇宙现象这电子管就通这是误差,这误差可以扩散,下一个处理还是误差也不可靠,所以电子计算机研究初期也碰到同样的问题,但是想了一个办法叫做纠错编码,意思说我用5个电子管,当一个电子管用,就是5个比特来编一个比特叫逻辑比特,就是5个物理比特编了,如果中间出错的我用少数服从多数,这叫纠错码,这在电子计算机已经用了非常好。量子物理学家就想那我把纠错码这种想法用到量子纠错行不行,他们发现量子有一个定律不允许他们做,叫做不可克隆定律,一个量子比特我不知道它什么样我不可以克隆另外一个量子比特跟它一模一样,这叫量子不可克隆定律。

所以一个量子比特我克隆不出来,所以经典的纠错码没办法用,这就是整个量子物理学家一年多全都处于低潮大家认为根本不可能。后来物理学家想了一个办法我用5个比特编一个比特,我把做成特殊的纠错态,可以抵抗所有的错误,这个叫做量子纠错码,所以开始提出要11个比特编一个比特可以纠所有的码。然后其他的11个太多,能不能到9个,有人说9个也可以,最后一篇文章说最少5个,所以量子纠错码就这么诞生使得量子消相干可以得以保护,所以科学家量子纠错码的发明从垃圾堆又捡回来,所以现在这问题解决了。这问题解决了不等于量子计算都解决了,还有另外一个错误也非常严重,叫操作,我们单比特门、两比特门操作,操作过程里有错误,这第一个操作发生了错误,就累计到下一步算出来的结果根本不可靠,这叫错误的延伸和扩大,所以这问题如果不解决也没法操作,后来科学家发明了一种容错编码,如果你操作的错误率低于5个,我就有办法纠,我纠正你的错误,第一步错误全部纠过来不影响下一步,这叫容错编码在理论上做出来。

但是容错编码一直非常高,怎么高呢?如果是一五一十的负5字方,就是做10的5次方最多一次,所有的实验做不到,幸好后来想了一个编码10的负2次方。一个离子阱一个是超导,这就是量子计算机突然火的原因,就是人们找到实验的办法,纠错编码行了容错编码行了最大的困难就解决了,是技术怎么使显得问题。这就是量子计算机最近的劲装。

最后大家集中在两个最有希望,一个是超导一个是半导体量子芯片,他们的好处就是可以扩展,很多体系做几个可以,做一百个也可以,但是做一千个一万个就很难,但是这两个都可以扩充,但是这两个最大的困难是什么?消相干太厉害,相干性太差。做出来很快相干性消失掉,所以长期人们觉得很困难,最近几年相干性大幅度的提高,已经达到了200个微秒,这红线就是半导体量子点现在世界上发展的情况,他们做的比我们早,最近报道两个比特,一个芯片处理两个量子比特这种水平,蓝线是我们现在做,那是科技部的一个项目从零开始做,我们现在做到三个比特到四个比特能做成。所以在这个领域里,我们基本上可以跟国外差不多水平,但尽管如此量子计算机可用的量子芯片还差的非常远,所以这还有很长的路要走。但是超导比量子点好多了,超导也是一个相干性的问题,这多少年也有大幅度的提高,也达到了一百个微妙到二百个微妙,超导的比特数做的比较好,它的各个指标都做到差不多我们可以实际做出器件的水平来,实际上已经做到9个量子比特,9个量子比特芯片是可以编成的,每一个可以操控的就做到这水平,只有可以操控的芯片才可以做量子计算机它基本深做到的。这国际上比我们好得多,我们在这一方面相当落后。

2016年7月美国政府提出可以供早期科学研究用的量子计算机,好多公司就开始部署,所有公司跟大的国营企业全都有量子计算中心。欧洲有一个欧洲宣言花了10亿欧元他们的目标今年开始15年之内做出通用的量子计算机。澳大利亚的他们的总理搞了一个硅基量子芯片研究所。D—Wava没做出来,超导谷歌做的最好9个量子比特做出来,现在正在做49个,因为如果量子电子计算机也可以模拟量子计算机,因为它们两个都是相同的目标,所以现在的电子计算机的最大能力能模拟多少呢?现在欧洲模拟的45个量子比特的量子计算的那种能力。所以如果量子比特能做到49个现在的所有电子计算能力根本没法模拟,这叫量子霸权,一到了49个演示,谁都没法赶过我。IBM有一个在线可以操作5个量子比特平台,让大家感受量子计算机运行,今年也要宣布50个,所以我们年底看一看一个49,一个50是不是能做到,如果能做到说明人类量子计算能力超越了经典,但是离通用量子还非常远。

半导体公布是两个比特,但是我们估计它做的比公布好得多。欧洲做了两个逻辑比特,我们实验室最近也做了2个比特的硅基的。所以量子计算机处在什么状态,从晶体管到集体电路过渡的状态,什么时候突破也有可能很快,也有可能十年以后。

所以量子计算是量子信息领域主流的研究方向,量子计算机的研制已经到了关键时刻不是遥不可及。说不定很快就能突破。美国政府有一套硬件、软件完整,所以现在它做到什么地步呢?现在他们的主流是公司为主来做量子计算机,所以它的速度将会非常快。我们国家相比之下就落后了,我们在量子计算机落后的比较多。幸好我们十三五国家已经重视把纳入重大国家计划,我们发挥优势集中力量能够布局好我们也有机会来超越它,因为毕竟谁都没有做出真正的通用量子计算机,我们还有机会。好,这是我的报告。谢谢大家!

(内容根据现场速记整理,未经发言嘉宾确认,仅供参考,谢绝转载)


 

邮件订阅

如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

重磅专题