量子计算机目前的进展是什么?

量子计算可能是技术革命的下一个大跃迁 。量子计算一旦进入实际应用,将会带来难以想象的创新 。不仅像谷歌这样的大型技术公司在这个方向发力,全球的学术研究人员都在致力于发展量子计算的理论,资金也在不断涌入 。


从现有的文献来看,可以分为四个主要主题:电路与电子学,量子比特研究/物理系统,量子算法/模型,逻辑和量子通信 。


谷歌有John Martinis组致力于超导量子线路,并声称能在2018年实现量子霸权,并早早地联和NASA成立了量子人工智能实验室;

微软押宝目前未被实验验证的拓扑量子计算,并在量子程序,软件方面有专门的研究机构QuArc,前XBox主管Todd Holmdahl现加盟量子计算,可以看出微软将量子计算商业化的野心;

英特尔计划投资一亿美元,其中5000万投给Delft的组做基于硅的量子计算机;

马里兰大学和初创公司IonQ在去年2016年用离子阱方案实现了第一台可编程的量子计算机;

哈佛,耶鲁,斯坦福,伯克利和加州理工在量子计算的实验实现和理论分析都有大实验室由知名科学家领航 。

此外,欧盟继石墨烯和人脑项目之后,从2018开始投入10亿欧元打造一个量子旗舰项目;

在澳大利亚,新南威尔士政府已经批准了2600万美元的量子计算计划;加拿大IQC量子计算机构被誉为“量子计算的硅谷”,其创始人Laflamme上一周收到了800万美元的投资,攻克量子系统的纠错问题;


在中国,中科大在量子通信领域处于国际领先,发射了自己的量子卫星,在量子项目的投入超过6亿人民币,并且与中科院,阿里巴巴成立一个联合实验室研制量子计算机;南方科技大学得到2亿人民币的深圳市政府的初步投资在超导量子线路以及其他的量子系统 。


除了公司巨头和学术界,近两年也有不少初创公司冒芽,比如基于超导的Rigetti Computing,致力于全栈量子程序,风投融资6920万美元;量子加密方向也有初创公司,有些还和政府合作,比如ID Quantique,Post-Quantum和Quantum Base;在软件和应用方向比较出名的有1QBit和Cambridge Quantum Computing 。总的来说,尽管成熟的量子计算机的实现可能还需5-10年,公司巨头,学术机构和初创公司在量子计算的投入大有“军备竞赛”之势,争先这个领域占领属于自己的高地 。

其他网友观点

这些年来,量子计算话题的讨论达到了前所未有的热度 。行业及媒体一直在不断强调,量子计算机有望“在众多学科当中带来突破”、“彻底改变我们的经济、工业 、学术以及社会格局”,有不少人甚至坚信,“量子计算机将很快破解世界上最为强大的敏感数据加密技术 。”与此同时,政府研究机构、学术部门以及企业实验室每年也投入了数十亿美元用来开发量子计算机 。摩根士丹利等众多金融巨头预计,量子计算技术将很快走向成熟 。那么,能够实际使用的量子计算机何时才能被制造出来?

最乐观的专家估计还需要5到10年,而更为谨慎的意见则认为还需要20到30年(顺便说一句,过去二十年当中,已经有专家不断提出类似的时间预期) 。

对此,理论物理学泰斗Mikhail Dyakonov(米哈伊尔迪阿科诺夫)撰文称:“量子计算机在可预见的时间里还造不出来 。”(Mikhail Dyakonov目前在法国蒙彼利埃大学的查尔斯-库仑(CharlesCoulomb)实验室从事理论物理研究 。他的名字出现在多种物理现象的命名当中,其中最为著名的是“迪阿科诺夫表面波”(Dyakonovsurface wave) 。)

以下是他的文章编译节选:

量子计算机的实现过程必须克服的一系列巨大的技术挑战 。量子计算的概念最早出现在1980年,由俄罗斯数学家尤里-马宁(Yuri Manin)首先提出 。几年之后,牛津物理学家大卫-多伊奇(David Deutsch)正式描述出一种通用型量子计算机 。然而,直到1994年数学家彼得-肖尔(Peter Shor)才提出了一种理想的量子计算机算法 。

这一理论成果引发了人们对于量子计算机的浓厚兴趣 。首先,制造一个量子计算机所需量子比特,即描述其状态的连续参数量不可想象 。

量子计算的基本思路,在于以完全不同于传统计算机的方式进行信息的存储与处理 。

首先,传统计算机基于经典物理学 。如果忽略相关细节,我们可以将它视为一种通过操作大量微型晶体管实现运作的机器,这些微型晶体管始终保持开或关两种状态中的一种,并在计算机时钟周期之内不断进行状态切换 。

因此,在任何给定时钟周期内,传统计算机的状态可以通过在物理层面对各个晶体管的状态进行长序列位记录来描述 。对于N个晶体管,传统计算机拥有2^N种可能的状态

而在量子计算当中,经典的双态电路元件(即晶体管)被称为量子比特(或量子位)的量子元素所取代 。与传统比特一样,量子比特同样拥有两种基本状态——我们可以将电子自旋的两个基本量子态表示为↑与↓ 。

然而,对于量子比特而言,这两种状态并不以排他性或者唯一性的形式存在 。这是因为电子的自旋态由量子力学中的波函数进行描述,且该函数涉及两个得数,即α与β(称为量子振幅) 。这两个复数各自拥有一定的振幅,且根据量子力学的规则,二者的平方振幅相加必须等于1 。举例来说,如果在↑状态中发现电子的概率为0.6(60%),那么在↓状态中发现电子的概率必须为0.4(40%)——其它任何结果都没有意义 。

与仅能处于两种基本状态中的传统比特相比,量子比特则可以同时存在于↑与↓的状态下 。但是,在我看来,这并没有实际意义 。

在一套拥有两个量子比特的系统当中,存在22或者4种基本状态,我们可以将其写为(↑↑)、(↑↓)、(↓↑)以及(↓↓) 。当然,这两个量子比特可以通过涉及四个复数的量子波函数进行描述 。在存在N个量子比特的一般情况下,系统的状态由2^N个复数来描述,这些复数受到单一条件限制——其平方振幅相加必须等于1 。

虽然在任何给定时刻,具有 N个比特的传统计算机必然处于其2^N种可能状态中的一种,但具有 N个量子比特的量子计算机的状态则由2^N个量子振幅的值来描述,体现为一项连续参数(可以采用任何值,而不仅仅是0或1) 。这是量子计算机强大的原因,但同时也是该理论之所以混乱且脆弱的根本原因 。

要在这样一个机器中处理信息必须应用某些类型的转换——学术领域将其称为“量子门”,从而以精确且受控的方式改变这些参数 。

根据专家估计,真正实用的量子计算机(即与如今常用笔记本电脑拥有相似运算能力的计算机),大概需要1000到10万个量子比特 。因此,但凡是具备实用性的量子计算机,用于描述其状态的连续参数的数量至少为2^1000,也可以说是10^300 。这个数字远远大于可观测宇宙中的亚原子粒子数量 。

其次,控制量子计算机所需的量子比特数将大幅增加 。

对于任何计算机,我们都必须考虑程序错误所产生的影响 。在传统计算机当中,当一个或者多个晶体管在应该被开启时被关闭,或者在需要关闭时被开启,就会引发错误 。相比之下,我们却无法想象要如何控制实用性量子计算机中必然存在的至少 10^300个连续参数 。

对此,有量子计算理论专家提出了称为“阈值定理”的理论 。他们指出,一旦各个量子门的每个量子比特的误差低于某个值,就有望实现无限增长的量子计算能力,而代价则是大幅增加所需要的量子比特数 。

那么,每个逻辑量子比特需要多少个物理量子比特?据估计,大约在1000到10万之间 。因此,结果就是具有实用性的量子计算机现在需要100万甚至更多的量子比特 。而用于定义这一假想的量子计算机状态的连续参数数量更是一个天文数字 。

其三,即使不考虑这些大到不可思议的数字,也没有人知道该如何将许多物理量子比特组成可以计算实际任务且数量较少的逻辑量子比特 。

21世纪初,量子信息领域的多位杰出专家团队规划了量子计算发展路线图,目标是在2012年“实现大约50个物理量子比特”,并“通过容错[量子计算]所需要的全部运算以运行多个逻辑量子比特,从而执行与量子算法相关的简单实例……”后来,这个时间点被推至2018年,但如今看来,这一能力仍然没有得到证实 。

虽然目前已经有大量关于量子计算的学术文献立足实验研究对实际硬件做出了描述 。然而,实际推动的实验举措则非常难以进行 。

目前,此类系统中的量子比特数量低于10,并且通常为3到5 。很明显,从5比特到50比特(即高级研究与发展活动局专家组设定的应于2012年实现的目标)带来了难以克服的实验难题 。其中最大的阻碍,很可能在于2^5等于32,而2^50却等于1,125,899,906,842,624 。相比之下,量子计算理论却无需去真正处理数百万量子比特的任何实质性难题 。举例来说,在误差率研究当中,人们正在考量各类噪声模型 。在某些假设之下,研究人员已经证明“局部”噪声所产生的误差可以通过精心设计且非常巧妙的方法加以纠正 。其中最重要的一种方法正是同时将数千个量子门应用于不同的量子比特,以完成数千次测量 。

十五年之前,高级研究与发展活动局的专家小组指出,“在某些假设之下,已经确定如果能够实现每个量子门运算的阈值精度,则这种量子纠错方法将允许量子计算机进行无限期计算 。”但其中的关键词在于“在某些假设下” 。很明显,他们也还没能解决这些假设是否可以得到满足的问题 。

我认为,这个问题没有办法被真正解决 。在物理世界中,连续的量(无论是电压,还是用于定义量子力学中波函数的参数)既不能测量也不能精确化加以操纵 。换句话说,我们无法使连续可变量具有精确值,包括零 。

当然,我们可以准确地识别出离散量,例如教室中学生的数量或者“开启”状态下的晶体管数量 。但连续变化量却无法准确识别,这一事实再次说明传统数字计算机与假想中的量子计算机之间存在着巨大的差异 。

实际上,理论专家们对于将量子比特准备至给定状态、量子门的具体操作、测量的可靠性等做出的所有假设都无法准确实现 。目前,我们只能以有限的精度接近目标 。但真正的问题在于,实现量子计算到底需要怎样的精度水平?这些关键问题不仅没有明确答案,甚至也从未得到学术界的明确讨论 。

虽然目前研究人员们正在探索构建量子计算机的各种策略,但大多数人认为其中最具希望的方法是将基于相互连接的约瑟夫森结的量子系统冷却至极低的温度(低至约10毫开) 。这个理论最初由加拿大厂商D-Wave Systems提出,目前得到了IBM、谷歌以及微软等众多企业的采纳 。

量子计算技术的最终目标在于创建一台通用型量子计算机,且希望其能够替代传统计算机 。

在硬件方面,行业也正在进行一系列探索,目前英特尔公司研究并制造出了49量子比特的芯片,IBM制造出了50量子比特芯片,谷歌则拥有72量子比特芯片 。但这项竞赛的最终结果尚不完全清楚,毕竟他们都没有公开工作的具体细节 。

虽然我相信这样的实验性研究会带来助益,也有望帮助我们更好地理解复杂的量子系统,但这仍不足以创建出真正实用的量子计算机 。

总的来说,此类计算机必须能够在微观水平上以极高的精度实现物理系统操纵,而必须拥有庞大的参数量,且每项参数都可能具有连续的取值范围 。

据此,我认为业界对量子计算的热情可能已经接近尾声 。以上提到的所有问题,包括尚未提及的其它一些问题,都不太可能在短期内得到解决 。

因而,量子计算领域的研究人员应该听从IBM物理学家罗尔夫-兰道尔(Rolf Landauer)几十年之前在量子计算首次升温时提出的警告:他敦促量子计算的支持者们在自己的出版物当中列出以下免责声明——这套方案与所有其它量子计算实现方案一样,以机会性技术为基础,与现有实现方式无关,未能考虑到所有可能的干扰源、不可靠性与制造错误因素,且可能无法真正实现 。”

其他网友观点

量子计算机(quantum computer)是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置 。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机 。量子计算机的概念源于对可逆计算机的研究 。研究可逆计算机的目的是为了解决计算机中的能耗问题

量子计算机,早先由理查德?费曼提出,一开始是从物理现象的模拟而来的 。如果用量子系统构成的计算机来模拟量子现象,则运算时间可大幅度减少 。量子计算机的概念从此诞生 。

《新一代人工智能发展规划》对攻克掌握核心技术方面作了专门部署 。结合重大项目,对围绕人工智能方面的计划项目部署进行了整体安排,形成“1+N”的人工智能项目群,包括大数据、云计算、智能制造、机器人、量子计算、量子通信、脑科学等等 。新一代人工智能重大科技项目,将和这些已经安排的项目任务,共同形成了国家人工智能研发的总体布局 。

中国不似美欧等国早早认识和研究了量子技术,在量子计算机方面的研究起步较晚 。科技部2011年启动的“十二五”导向性重大项目(超级“973”),要求在2015年实现比特数3的量子芯片 。2016年启动“十三五”重点研发计划“半导体量子芯片研究”,要求2020年前获得品质因子1000、比特数6的量子芯片 。

2018年2月中科院/中科大团队发布量子计算云平台最新成果-中科院联合阿里云打造的11量子比特超导量子计算的云平台,这是继IBM后全球第二家向公众提供10量子比特以上超导量子计算云服务的系统 。平台已成功上线32比特量子虚拟机,并已经实现了64量子比特的量子电路模拟打破IBMQ的56位仿真记录 。

科技兴则民族兴,科技强则国家强!在经历过万千磨难之后,中国企业、学校和研究机构正在积极投身于技术改革和革新中,推动社会的进步,造福国家的百姓,助力中国的崛起 。

想要了解更多关于量子计算机行业专业分析请关注中研普华研究报告《2018-2023年中国量子计算机行业市场深度调研与投资风险预测报告》

相关阅读

量子计算机研究意义

【量子计算机目前的进展是什么?】迄今为止,世界上还没有真正意义上的量子计算机 。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想 。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的操纵确实太困难了 。已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等 。还很难说哪一种方案更有前景,只是量子点方案和超导约瑟夫森结方案更适合集成化和小型化 。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样 。研究量子计算机的目的不是要用它来取代现有的计算机 。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机如光计算机和生物计算机等的不同之处 。量子计算机的作用远不止是解决一些经典计算机无法解决的问题 。

    推荐阅读