当前量子计算技术前沿是什么水平?

颜丶颜


首先先来介绍下量子计算是个神马鬼?量子不是一种粒子,它在多数情况下是一个形容词而不是名词。它也不是指分立、不连续,而是一套自然规律的总称——这套规律是人类现有认识范围内物质世界的“基本法”。


而量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,目前某些已知的量子算法在处理问题时速度要快于传统的通用计算机。


搞明白什么是量子计算技术,再来看下各个知名厂商在此领域的成果。据悉,英特尔公司与荷兰研究机构QuTech共同发明了一种基于硅材质的量子芯片,旨在帮助量子技术业界超越传统计算机并朝着全新的方向迈进。另外,在今年的CES 2018展会上公布了一款49 qubit量子芯片,该公司CEO Brian Krznich将其称为量子计算领域的突破性进展,同时也代表着“量子优势”的下一步方向。


IBM公司在量子计算上也做好充足的准备,邀请客户在其全新20量子位系统之上构建应用程序,而50量子位系统也已经在开发当中。摩根大通、戴姆勒以及三星将成为第一批试用IBM公司全新20量子位(qubit)IBM Q量子系统的企业,负责协助蓝色巨人立足这套系统探索商业、工业与科学类量子计算应用潜力。


谷歌作为业内知名企业,自然不甘落后,推出一款72个量子比特的通用量子计算机Bristlecone,实现了1%的低错误率。

本答案来自科技行者团队刘小新!


科技行者


现代技术发展的速度总是超过人们的想象,技术发展的方向也将人们的生活带向一个新的层次。在今年CES展上,因特尔宣布了自己的研究成果,一块49个量子位的量子芯片,而后三月,谷歌宣布了一块拥有72个量子比特的量子芯片,并且表明能够进行实际运用,5月阿里达摩院也不甘示弱,推出了自己的量子电路模拟器“太章”,一时间量子计算的概念进入大众视野,成为了焦点话题。

量子计算(图片来自http://tech.sina.com.cn/it/2017-05-05/doc-ifyeycte8789900.shtml)

什么是量子计算?根据维基百科的解释,根据量子力学现象进行计算即为量子计算。谈到量子计算,就必然绕不开两点,叠加和纠缠。与传统计算机基于晶体管的二进制不同,传统计算机的二进制数字总是确定状态的“0”或“1”,而量子计算使用的是量子比特,并没有固定状态,我们可以借用一个著名的实验“薛定谔的猫”来描述这一现象。

薛定谔的猫(图片来自https://baike.baidu.com/item/%E8%96%9B%E5%AE%9A%E8%B0%94%E7%9A%84%E7%8C%AB/554903?sefr=cr)

在箱中放置一只猫和连接毒气的放射物,箱中的放射性物质有50%概率衰变释放毒气杀死猫,但也有可能不会衰变使得猫活下来。在不打开箱子的情况下,如果按照传统计算机的角度,猫要么死了要么活下来,必然是二者中确定的一方。但是以量子计算的角度,猫可以既死既活,处于二者混合的状态,这就是叠加状态。

量子纠缠(图片来自https://www.zhongtou8.cn/news/detail/78873)

量子纠缠实际上是两个在叠加态中的粒子相互影响的现象,值得注意的是,这两个粒子在空间上距离可能会隔很远,但是双方中间一旦一方被测定,与之纠缠的一方的状态也会被确定下来。

传统计算机的基本单位比特(bit)拥有确定的状态,要么“0”,要么“1”,而量子计算的基本单位为量子比特或称为量子位(Qubit),可以同时存在“0”和“1”两种状态,如果拥有4个比特,那么传统计算机也只是存储2^4中的一个,如果拥有4个量子比特,那么能够存储的信息为2^4个,计算能力直接呈指数级增长,运算能力相当于传统计算器运算2^4次,效率将大大增加。

得益于量子叠加和纠缠,量子计算能够保持超高速度来进行并行运算,对于大批量数据结果运算能够保证高效完成。不过需要注意的是如果没有与之对应的量子算法,量子计算机的实力是难以全部发挥的,而且只有部分算法可以进行加速,因此传统计算机与量子计算机处于相辅相成的关系,并非只是新技术完全取代传统的过程。

早在2016年5月4日,IBM就发布了量子计算服务,用户可以通过云连接IBM量子计算机,来进行实验和模拟。量子计算作为一种革命性的技术正越来越受到重视,微软,谷歌都投入了自己的研发力量,量子计算的现实应用也正一步一步离我们越来越近。

·数据计算

数据计算(图片来自https://unsplash.com/search/photos/data)

谈到应用,量子计算机的核心功能自然是数据计算,超高的运行计算能力,这对于许多行业都是必须要求。例如今年大火的人工智能方向,通过深度学习,不断完善算法,直至产品满足人们智能化需求。在这个过程中,机器学习的成本往往是巨大的,因此许多人工智能都只能在某一个领域某些关键词上作出相应,难以满足人们复杂的情景应用,自然会被叫成“人工智障”。但是如果利用量子计算机的高速运算,机器的学习成本将会大大降低,AI的运用场景也将丰富起来。其实不仅仅是人工智能,量子计算在大数据分析,智慧城市,金融模型等方面都大有可为。

·通讯加密

信息安全依托算法加密(图片来自https://unsplash.com/photos/f5pTwLHCsAg)

当今各种密码的安全保障依托各种加密算法技术,但是对于量子计算机来说,能够通过特定算法进行高速并行轻松破解。基于量子纠缠的特性,在通讯过程中,如果有人想要窃听通讯内容而对量子进行测量的话,另一端量子就必然会感知到,从而终止机密信息的传输,商业机密能够得到充足的保障。

量子技术发展自然是未来的一大方向,但是我们仍需要看到其中的问题,一是量子计算的要求更为严苛,需要在极低温的环境下工作;二是量子相关技术的研究存在瓶颈,例如如何制造出纯纠缠态,以此克服量子通讯的信息失真;三是量子计算带来的改变,例如密码学革命性的改变,传统加密技术,行业,个人信息安全的该何去何从,量子计算攻击该如何防范。四是量子计算技术各国研发的水平差异,标准由谁制定,量子霸权的出现。这些都是我们需要了解的。

量子计算技术必然会到来并给我们生活带来巨大改变,但现在仍处于发展阶段,因此并没有必要过于吹捧,肯定技术价值,合理规划研究,这是一个企业乃至国家保持创新和竞争活力的关键,更何况,量子计算离改变生活的日子也不会太远了。


中关村在线


国内的话中科大比较领先。现在主要是潘建伟小组在做,他们在量子纠缠上的研究已经达到世界先进水准,量子通信和量子计算做的都不错。量子计算机主要是解决多量子体系纠缠态的制备以及找到更有效的算法,主要还是在量子物理。2007年潘建伟他们发表了一篇文章叫用光量子比特演示休尔量子因子分解算法的编译版,当时也挺轰动的。国外的话牛津、慕尼黑、维也纳大学;美国的麻省,加州伯克利等几所也做得不错。不过我建议你,如果想做这方面的研究,去中科大真的很不错,他们有国家级微尺度物理实验室,无论在硬件还是软件上都很强,几乎每年中国十大科技进展里都有潘建伟小组的身影,你可以去搜搜。


车主小管家


今天小编请中国信通院专家来讲讲量子计算的发展现状,以及我国量子计算发展水平。


随着人类社会对信息处理的需求越来越高,以半导体大规模集成电路为基础的经典计算在性能提升方面面临瓶颈,无法突破量子效应挑战。量子计算是量子力学与计算机科学相结合的一种新型计算方式,以微观粒子构成的量子比特为基本单元,具有量子叠加、纠缠和相干特性,通过量子态的受控演化实现信息编码和计算存储,具有经典计算技术无法比拟的巨大信息携带量和超强并行计算处理能力,且随着量子比特位数的增加,其计算存储能力还将呈指数级规模拓展。

  (一)量子计算关键技术仍有待突破

  量子计算理论从上世纪八十年代开始创立,经过初期的理论研究和实验探索,在物理实现、量子编码、量子算法和计算模型等方面取得了大量研究成果。目前,量子计算整体上仍处于基础理论研究和原型产品研发验证阶段,多项关键技术仍有待突破。

  物理实现方案竞争激烈,超导体系相对领先。找到相干时间长、易集成和可扩展的物理硬件体系是量子计算的实现基础与关键。目前,量子计算的物理实现有超导、离子阱、半导体、钻石空位、光、核磁共振、冷原子等不同技术路线,每种路线各有优缺点。就现阶段实验操控技术水平而言,超导和离子阱体系处于领先地位,尤其超导体系势头更盛,备受IBM、谷歌等科技巨头的青睐。IBM物理学家在早期曾提出实现量子计算机物理体系必须满足的几条DiVincenzo判据,如可扩展的具有良好特性的量子比特系统、能制备量子比特到某个基态、具有足够长相干时间完成量子逻辑门操作、能够实现一套通用量子逻辑门、能够测量量子比特等。然而,目前尚没有任何一种体系能够在实验上同时满足所有判据,有专家预测,未来的量子计算机可能基于混合体系。

  量子编码是大规模量子计算机的实现基础,代价仍然较大。量子编码以消耗更多量子比特资源为代价来克服退相干效应,由于量子态不可克隆、不可测量、错误自由度大等特性,量子编码的实现比经典编码更为复杂。1995年,Shor构造出第一个量子纠错码9位码,目前发展至7位和5位码,即用7个或5个物理比特编码1个逻辑比特。不同纠错方式对应不同的容错阈值,通常来说阈值越低,所需要的量子比特资源越多。

  量子算法数量有限,核心算法创新困难。上世纪九十年代中期,美国科学家提出可应用于公钥密码体系破解的量子Shor大数分解算法和可应用于数据库搜索的量子Grover算法,大大激发了量子计算的研究热情,这两类算法已成为构造其他量子算法的重要基础。然而,由于量子计算特殊的运行方式,经典算法的设计思路无法直接移植,且目前可用的量子工具仍然较少,具有核心作用的量子算法相对匮乏,不能在处理所有问题上均取得优势,适用范围有限。

  量子计算模型和体系结构均与经典计算存在差异。

量子计算的数学模型基础是80年代定义的“量子图灵机”,目前,量子线路模型是主流方向,量子绝热和拓扑模型亦是研究热点。同时,由于量子态叠加、纠缠、不可复制、相干保存时间短等特点,通用量子计算机的体系结构将不同于经典计算机,设计更为复杂,技术选择目前尚不明朗。

  (二)科技巨头竞相布局,初创企业迅速发展

  欧美等发达国家政府和科技产业巨头大力投入量子计算技术研究,取得一系列重要成果并建立了领先优势。以美国加州大学、马里兰大学、荷兰代尔夫特理工大学和英国牛津大学等为代表的研究机构基于超导、离子阱和半导体等不同技术路线,展开了量子计算机原理样机试制与实验验证。通常用“纠缠量子比特位数量”来表征量子芯片的计算能力,量子纠缠的制备与操控会随着量子比特位数量的增加而呈指数级的难度增加。美国科技产业巨头开始大举进军量子计算研究领域,成为推动量子计算机研发加速并走向实际应用的重要力量。谷歌与加州大学合作布局超导量子计算,2016年报道了9位超导量子比特的高精度操控,并购买了初创企业D-Wave公司的量子退火机,探索人工智能领域。微软布局基于“任意子”方案的拓扑量子计算,并注重模拟器等软件领域的同步开发。Intel同时开展半导体和超导方案,2017年10月报道了17位量子比特的超导芯片。IBM在2016年上线了全球首例量子计算云平台,目前IBM Q处理器已升级至16/17位量子比特;2017年11月宣布基于超导方案实现了20位量子比特的量子计算机。此外,以D-Wave、IonQ、Rigetti Computing、1QBit为代表的初创企业迅速发展,各具特色,涵盖硬件、软件、云平台等环节,企业数量以美国居多。

  我国近年来开始加大重视程度、积极赶进,在科研布局和企业投入方面取得一定成果。以中科大、浙江大学和清华大学等为代表的研究机构在量子计算原理实验和样机研制等方面取得一定研究成果。2017年,中科大和浙江大学联合宣布基于超导量子计算方案实现了10位量子比特的纠缠操控。同年,中科大还报道了基于波色子采样的光量子计算机研究成果。在产业布局方面,阿里巴巴联合中国科学院在2015年设立“中国科学院-阿里巴巴量子计算实验室”,此外,腾讯也正在筹备建立量子实验室。2017年9月,中科大成立了国内首个量子计算初创企业,合肥本源量子计算科技有限公司,计划开展量子计算芯片、测控系统、软件等方面的研发。2017年10月,清华大学、阿里巴巴和本源量子各自发布了基于不同物理体系的量子计算云平台。整体而言,我国在量子计算领域虽已取得一定成绩,但在投入力度、团队数量、创新成果、方案种类和指标方面仍落后于美国。

  (三)量子计算发展虽困难重重,但前景可期

  量子计算发展面临技术、模式、资金的多重挑战。

技术挑战是量子计算目前发展所面临的最严峻问题,实现量子计算最困难的地方在于量子系统的脆弱性,如何克服退相干带来的系列困难,提高量子系统的可靠性和可扩展性存在挑战。其次,量子计算属于交叉学科,需同时对量子力学、计算机科学等基础理论有充分理解,因而需要多方面学者专家通力协作,不同学科和机构间的合作交流有待强化。最后,量子计算对资金投入水平和持续性要求较高,需长期探索。

  量子计算成长速度较快,前景可期。目前,量子计算发展处于技术理论验证和原理样机研发攻关关键阶段,可行性不断增加,技术竞争方案不断明朗,后续的应用研究发展也将进一步加速,预计专用量子计算机可能会率先获得应用。在与经典计算的发展定位方面,量子计算目前只能解决部分经典计算不能或难以解决的问题,并非在所有问题的解决上都优于经典计算,且量子计算机的复杂操控仍需要经典计算机辅助,在未来相当长时间内,量子计算都无法完全取代经典计算,两者将相辅相成。尽管量子计算规模目前还很小,但成长速度较快,前景可期,其发展与应用将为基础科学研究、新型材料和生物药品开发、人工智能等众多领域带来深远影响。


中国信息通信研究院


虽然有很多的炒作和泡沫,但目前量子计算实际上还处于理论研究和原型概念验证的早期阶段。我们国家在量子计算上还落后于美国,但是在量子通信上已经是世界第一的水平。


量子计算对于大多数人来说很神秘,尤其是“量子霸权”这样的概念让人觉得好像谁掌握了量子计算的优势谁就能称霸世界。但事实上对于量子计算的研究不是为了替代传统的计算机,就像发明火箭不是为了替代汽车一样,两者各有各的用途,甚至在大多数时候量子计算还不如传统计算机。这是因为量子计算要结合特定的算法(例如:质因数分解的Shor算法和无序搜索的Grover 算法)才能发挥它的威力,但在目前阶段量子计算还停只留在理论和概念的阶段,远远还没成为一种“通用技术”。


由于还处在早期,量子计算的“门派”和“学科分支”也有许多,属于百花齐放的阶段。但是一般而言,我们会用“量子比特位”的数量来作为衡量量子计算研究水平的一个主要参考。今年3月谷歌宣布推出拥有72个量子比特的Bristlecone芯片是迄今为止最大的量子芯片,超过了IBM的50个量子比特和英特尔的49个量子比特。


从量子比特数量的角度来讲,美国的确是超过我们,但“数量多”并不代表“质量好”,所谓的“量子霸权”很多时候属于概念的炒作。阿里巴巴量子实验室主任施尧耘说:“很多人都希望谷歌的这款处理器能够实现量子霸权,但我们的结果表明,这种期待可能过于乐观。” 就像之前所说的,量子计算在大多数时候的效率其实比不上传统计算机,就像坐火箭去上下班在绝大多数时候还不如打车或者骑个自行车方便。


不过在这里要提一句,在量子通信领域中国目前的确是在领跑世界,去年9月中国和奥地利科学家借助“墨子号”卫星成功实施的世界首次相距7600公里的量子保密洲际视频通话。和量子计算不同,量子通信主要的任务是保密通讯,而不是比计算速度。


其实对于每一样新技术也好,黑科技也罢,从概念提出到真正的落地往往要经历泡沫期、冷静期、发展期和成熟期等几个阶段,把这些阶段画出来也就是著名的「Gartner曲线」。去年发布的Gartner曲线中我们可以看到量子计算目前还处于泡沫期的上升阶段,真正落地预计需要10年以上的时间。



高挺观点


今天,各方力量都在参与一场量子竞赛。谷歌、IBM等公司以及全球的研究人员都在致力于开发量子计算机,来实现复杂的计算。

量子计算机外观与现在的家庭计算机非常相似,但其功能却是异常强大。对于一台普通的计算机需要上千年来解决的问题,量子计算机几毫秒内就可以解决。毫无疑问,量子计算机应用会更加广泛,相比于电子计算机效果会更好。它们可以被用来制定气候变化解决方案,处理卫生保健大型数据等问题。

“微软、谷歌和IBM等公司一直致力于开发这项技术,量子计算的梦想即将成为现实,” Daryl Harrington在InfoWorld的一篇专栏中写道。“技术创新并不是去竞争谁能第一个实现量子计算,而是要秉着为给我们的后代一个更美好的世界的愿望,解决现实中遇到的问题。”

以物联网为例,数以亿计的设备被紧密地连接在一起,数据不断地被传送,每天我们都淹没在这些数据之中。根据IBM的数据,我们每天能产生2.5万亿字节的数据,而这一数字仍在增加。这些数据都非常重要,但它又是如此庞大,我们根本无法分析它。量子计算机也只有在人工智能的帮助下,才可以帮助我们分析这些正在生成的数据。

“机器学习,是人工智能的一个领域,通过机器学习Alexa和Siri能分析你说的话,自动驾驶汽车能安全地在街道上行驶。量子计算机的高速计算可以提高机器学习的速度,”马克•安德森在IEEE的专栏里写道。

量子计算机和人工智能(或者说是和量子机器学习)的综合研究仍处于初期阶段。许多机器学习方面的算法仍然只停留在理论阶段,还急需进行大规模量子计算机的测试。即便如此,两者的结合已经算是卓有成效了。

人工智能时代何时到来呢?其实,人工智能已经以各种形式进入了我们日常生活。从整理电子邮件的算法到能和人类进行网游互动的机器,我们似乎今天已经生活在一个充斥着智能机器的世界里了。

既然人工智能已经战胜了人类的顶级棋手,我们为什么还要开发量子计算机呢?为什么还要提高软件的自动化程度呢?人工智能的发展似乎已经达到了顶峰。但实际上,创造出能真正解决难题的智能机器,我们仍任重道远。

今天的人工智能仍然极具人造意味。我们还无法让机器具有人类的创造力和想象力。虽然今天的人工智能可以完成单项任务,或是出色地完成一系列任务,但它仍然无法具备人类智力。人类在人工智能领域的研究已经取得了长足的进步,这极大地鼓舞了人类,激发着人类进行根深入地研究。而量子计算机就可以在这方面帮人类一把。

IBM认知研发副总裁约翰•凯利,在最近的一份新闻采访中表示:“过去的10年,人工智能领域已取得了难以置信的增长和进步。今天的人工智能产品硕果累累,但要想解决遇到的日益困难的问题,就必须创新,突破限制才能继续改善我们的工作和生活。”

正如Kelly所说,传统的人工智能方法已经遇到瓶颈,人工智能目前无法发挥出其全部潜力。人工智能若想“更上一层楼”,就需要超级硬件在背后支持,保障它那些复杂的软件系统快速运转。

量子计算就可以解决人工智能发展瓶颈的问题,人工智能也能促进量子计算的科学研究。此外,量子理论能使人工智能系统更强健,也能帮助研究人员开发出更佳的算法。通过量子计算技术,无论是癌症,还是地缘政治,我们可以在所有领域取得突破性研究。我们也可以利用人工智能帮助科学家解决微妙复杂的科学问题。


智东西


今年以来量子计算领域讨论的热点是谁能先实现“量子霸权”,可以说这就是当前量子计算技术的前沿。对于相关进展,我个人的感觉是量子位的“数量”是你追我赶,但在“质量”上却普遍有待进步。


“量子霸权”是对quantum supremacy的翻译,有的也翻译成“量子称霸”,指的是量子计算机的计算能力在某些问题上超过经典计算机,就实现了相对于经典计算机的“称霸”。

今年初,谷歌宣布将在年底前实现有49个量子位的量子计算机,实现“量子霸权”。但是在11月,IBM突然宣布,已经造出了20个量子位的处理器,并且还宣布成功构建有50个量子位的处理器原型。

谷歌和IBM是被认为在量子计算领域领先的两家企业,它们的这番你追我赶,也让大家普遍认为50个左右的量子位就可以实现“量子霸权”。但它们的相关宣称的一个问题是,并没有公开发布相关论文或有说服力的资料,在一些专家看来只是出于商业宣传目的的炒作。

然后到了11月底,30这期的英国《自然》杂志突然同时刊登了两篇文章,美国哈佛大学的研究人员说实现了51个量子位的量子计算,马里兰大学的研究人员更是说实现了53个量子位。怎么好像突然量子位不值钱了,大家纷纷突破了50个大关?

原来量子位只有“数量”还不行,还得看“质量”,也就是这50来个量子位中究竟有多少是互相关联的,在上述这些研究中,虽然量子位都到了50大关,但实际上其中许多量子位之间没有关联,还是彼此独立运作的。这也就是还没有一个研究团队宣布自己实现“量子霸权”的原因。

美国得克萨斯大学奥斯汀分校量子信息中心主任斯科特·阿伦森曾经对媒体表示: “量子位的数量远不是唯一的关键因素。否则按这个算的话,(加拿大)D波公司已在销售的一个系统已经有2000个量子位了,问题在于这些量子位似乎没有足够好的相干时间,以至于该系统没有任何方面明显胜过经典计算机。”

所以,现在的量子计算前沿应该不是看量子位的“数量”了,而是看这些量子位的“质量”。比如今年5月中国科技大学的潘建伟团队宣布,在基于光和超导体系的量子计算机研究方面取得系列重要进展,打破了之前由谷歌、NASA和UCSB公开报道的九个超导量子比特的操纵,首次实现了十个超导量子比特的纠缠。这10个互相纠缠的量子位,就是有质量的10个。

我觉得,照今年这些研究机构和科技企业你追我赶破各种纪录的势头,明年很可能就有某个团队迈过“量子霸权”这个里程碑。


黄作梦


量子力学中超脱自然力的叠加、纠缠、隧穿与非定域性等描述,不是科学,而是概念混乱的神学,中国所有光量子科技,包括光量子计算机技术,均属于伪科技!详情可进入本人主页问答栏查阅相关文章。


池昭新一城市新模式


“编写量子纠错代码比实现量子霸权更加困难。”

在付出了几十年艰辛的努力却看不到成功的希望之后,量子计算忽然大放光芒,突飞猛进。

近两年前,IBM推出了一台量子计算机:5量子位的IBM Q Experience。它似乎更像是研究人员的玩物,而不是能处理大量数据的工具。但全世界仍有7万名用户注册使用它,现在,其量子位已经增加到原来的四倍。过去几个月里,IBM和英特尔宣布,他们分别研制出50和49量子位的量子计算机。据推测,谷歌的量子计算机也蓄势待发。

“这一领域充满了能量,近期取得了巨大的进展。”柏林自由大学物理学家延斯·艾塞特(Jens Eisert)说。

现在,人们大谈“量子霸权”时代即将来临,届时,量子计算机的计算能力将超过如今最强大的传统计算机。赤裸裸的数字对比,可能会让你觉得“量子霸权”完全是个笑话:50量子位VS.笔记本电脑中的数十亿传统比特。

但量子计算的意义在于,一个量子位比一个传统比特要强大得太多太多。

50量子位计算机在很短的时间内,就能完成传统计算机需要极长时间才能完成的计算。2017年年中,谷歌研究人员宣布,他们有望在年底前实现量子霸权。(近日被问及最新进展时,谷歌发言人说,“我们希望尽快公布结果,但我们正在检查所有细节工作,确保在公布前有一个确凿的结果。”)

这一切很容易让人们得出这样的结论:理论上的基本问题已经解决,现在,量子计算的大规模应用只是工程上的问题而已。但这种看法是错误的。量子计算的基本问题远未得到解决,距离大规模应用还有很长的路要走。

即使我们很快跨过量子霸权的门槛,接下来的一两年或许才是考验量子计算机能否颠覆计算领域的关键时刻。一切仍有待努力,成功并非板上钉钉。

在IBM位于纽约州约克敦海茨Thomas J. Watson研究中心的量子计算中心,量子计算机放置在巨大的低温箱里(右边较远处),箱内温度只比绝对零度高零点几度

说不清道不明的量子计算

量子计算带来的好处和挑战,都是物理学的固有特性。量子计算的基本原理已经说了很多次,但细节之处并不总是被人提起。传统计算机把信息作为二进制字符串来编码和处理,传统比特要么是1,要么是0。量子计算机也是如此,

但区别在于,量子位可以处于叠加态,既是1也是0,这意味着在某个定义明确的概率下,对量子位状态的测量可以得出1或者0的答案。

利用多个量子位进行计算时,必须使各个量子位处于互相依存的叠加态,也就是量子位互相纠缠的“量子相干”态。这样一来,对一个量子位的调整会影响到其他所有量子位。这意味着,量子位的计算能力远远超过传统比特的计算能力。对传统计算机来说,比特数量增加,计算资源也会相应增加,但增幅不会太大,但对量子计算机而言,每增加一个量子位,就可能使计算资源翻倍。因此,5量子位和50量子位计算机可谓有着天壤之别。

请注意,虽然经常有人说,与传统比特相比,量子计算机具有优势,因为量子叠加态大大增加了可编码的状态数量,但我没有这样说过。我也没说量子纠缠使很多计算任务可以并行开展。(高强度的量子位纠缠并非必不可少。)某些情况下,这些说法有一定的真实性,但都没有抓住量子计算的实质。

IBM存放50量子位系统的低温箱内部

很难说清楚量子计算究竟为何如此强大,因为很难具体说明量子力学到底意味着什么。量子理论中的公式无疑证明量子计算是可行的:至少对因数分解、数据库搜索等某些类型的计算而言,计算速度可以获得大幅提升。但究竟是怎么做到的?

在描述量子计算时,最保险的说法也许是:量子力学为量子计算机提供了一种传统计算机所没有的“资源”。正如加拿大圆周理论物理研究所的量子理论学家丹尼尔·戈茨曼(Daniel Gottesman)所说,“如果你有足够的量子力学来支撑,那么在某种意义上,你就能加快计算速度。如果你没有,就不能加快速度。”

但有些事情是明确的。要进行量子计算,就必须使所有的量子位相干。而这非常难。量子相干系统与周围环境的相互影响创造出一个个通道,通过这些通道,相干性会迅速“泄露”,这个过程被称为“退相干”。想要打造量子计算机,研究人员必须避免退相干,现在,他们只能在零点几秒内做到这一点。

随着量子位数量的增加(因而与环境相互影响的可能性也随之加大),避免退相干变得愈加困难。从很大程度上来说,这就是量子计算机从概念提出到真正诞生,会耗时如此之久的原因。

1982年,理查德·费曼(Richard Feynman)首次提出量子计算概念,相关理论在90年代初形成体系,但直到现在,才研制出可运行的量子计算机,能真正进行有意义的计算。

出错率

量子计算实现起来如此困难,还有第二个重要原因。与自然界的其他所有过程一样,量子计算存在噪声。量子位热量或者量子力学基本过程产生的随机波动,偶尔会反转或打乱量子位的状态,从而导致计算出错。对传统计算来说,这也是个问题,但不难解决,只需保留每个比特的两个或多个备份,从而使那些被随机反转的比特显得格格不入。

量子计算机研究人员已经想出了处理噪声的对策,但这些对策会大大增加计算负担——你所有的计算能力将被用来纠正错误,而不是运行算法。

“当前的出错率严重限制了可执行计算的长度。”马里兰大学量子信息与计算机科学中心联合主任安德鲁·柴尔德(Andrew Childs)说,“如果想做点有意思的计算,我们必须找到更好的解决办法。”

马里兰大学量子理论学家安德鲁·柴尔德说,出错率是量子计算机的一个重要问题

对量子计算基本问题的很多研究都集中在纠错上。它之所以如此困难,原因之一在于量子系统的另一个重要特性:只要一测量量子位的值,叠加态便无法维持。你一测量,叠加态就会塌缩成一个确定的值:1或者0。

那么,在不清楚量子位状态的情况下,如何才能知道这个量子位是否出错?

一个聪明的办法是间接观察,把这个量子位与另一个不参与计算的“辅助”量子位配对。这样,我们就能在主量子位状态不塌缩的情况下,观测“辅助”量子位。但这做起来很复杂。这样的解决办法意味着,为了创造真正的“逻辑量子位”来纠错,你需要很多物理量子位。

需要多少?哈佛大学量子理论学家阿兰·阿斯普鲁-古兹克(Alán Aspuru-Guzik)估计,需要大约1万个物理量子位,才能创造出一个逻辑比特位。这完全是不现实的。

他说,如果量子位的质量大幅提高,这个数字可以减少至几千甚至几百个。艾塞特则要乐观一些,他说800个物理量子位也许就够了。即便如此,他也认为这会产生很重的计算负担,眼下,我们需要想办法来处理容易出错的量子位。

另一个纠错方法是避免错误或者消除错误的影响,这就是“错误抑制”。例如,IBM的研究人员正在想办法弄清楚在一次计算中可能产生多少错误,然后推断计算结果的“零噪声”限制。

一些研究人员认为,纠错这个问题将难以解决,它会妨碍量子计算机达到人类对它们的崇高期望。

“编写量子纠错代码比实现量子霸权更加困难。”以色列希伯来大学的数学家吉尔·卡拉伊(Gil Kalai)说,“从计算角度而言,没有纠错功能的设备是非常落后的,落后就谈不上霸权。”换言之,如果存在错误,就不可能比传统计算机更好。

其他人则相信,这个问题最终将得以解决。IBM下属Thomas J. Watson研究中心的量子信息科学家杰伊·甘贝塔(Jay Gambetta)说,“我们最近在IBM开展的实验已经论证了在小型设备上进行量子纠错的基本要素,这为大型设备的量子位在噪声存在的情况下长期、可靠地存储量子信息铺平了道路。”尽管如此,他也承认,“那种必须使用逻辑量子位、具有容错功能的通用型量子计算机,距离我们还很遥远”。得知IBM的上述进展后,柴尔德表达了谨慎乐观的态度。“我相信,在纠错问题上的实验论证将得到改进,但我认为,要用于真正的计算,还需要相当长的时间。”他说。

与错误共处

目前的量子计算机容易出错,这已是不争的事实,问题是如何与错误共处。IBM研究人员把“近似的量子计算”作为短期内努力的方向:找到容纳噪声的方法。

这需要容错算法——在错误存在的情况下,依然能得到正确结果。这有点像是,在少数选票计票错误的情况下,仍能统计出选举结果。“即使没有做到完全容错,规模够大、保真度够高的量子计算(相对于传统计算来说)也应该具有某种优势。”甘贝塔说。

最直观的容错应用之一是模拟原子级的东西,这似乎对科学家比对大众更有价值。实际上,这就是费曼当初提出量子计算概念的初衷。量子力学公式指明了计算分子属性(比如稳定性和化学反应性)的方法,但这些公式必须经过大量简化,才能用传统计算机求解。

相比之下,柴尔德说,电子和原子的量子行为“更贴近量子计算机的本质行为”。所以我们可以针对分子,建立精确的计算机模型。“这个圈子里的很多人,包括我在内,都认为量子化学和材料科学将是最先应用此类设备的领域之一。”古兹克说。他一直以来都在带头推动量子计算朝这个方向发展。

即便是在目前非常小的量子计算机上,量子模拟也证明了自己的价值。包括古兹克在内的一群研究人员开发了一种算法,他们称之为“可变量子本征求解”(Variational Quantum Eigensolver,简称VQE)。这种算法能有效找出分子的最低能态,哪怕存在噪声量子位。到目前为止,该算法只能处理电子数量很少的小分子,而且传统计算机已经能准确模拟。但量子计算机的能力正变得越来越强大。去年9月,甘贝塔和同事利用IBM的6量子位计算机来计算分子的电子结构,包括氢化锂和氢化铍。瑞士联邦理工学院的物理化学家马库斯·莱赫(Markus Reiher)说,这是“迈向量子政权的一大步”。甘贝塔称,“近期有可能出现一批启发式算法,而VQE在小分子模拟方面的应用就是一个很好的例子。”

尽管如此,古兹克坦言,量子计算机要真正超越传统计算机,可能还需要具有纠错功能的逻辑量子位才行。“如果哪一天量子计算真的能纠错了,我会非常兴奋。”他说。

“如果有200多个逻辑量子位,我们就可以超越标准方法的范畴,在量子化学方面做点事情。”莱赫说,“如果有5000个逻辑量子位,那么量子计算机将彻底改变这个领域。”

你的量子体积是多少?

尽管这些目标实现起来并不容易,但量子计算机从5个量子位增加到50个量子位,只用了一年多时间,这样的快速发展使人们燃起了希望。然而,我们不应该对这些数字沾沾自喜,因为它们只是成功的因素之一。重要的不仅仅在于量子位的数量,还在于它们的质量以及算法的效率。

量子计算必须在退相干发生前完成。一般来说,目前量子位组的退相干时间只有百万分之几秒。在那一瞬间可执行的逻辑操作的数量,取决于量子门开关的速度。如果这个速度太慢,有多少个量子位都没用。计算过程中所需要的门操作的数量,被称为深度:低深度算法比高深度算法更可行,但问题是它们能否被用来执行有意义的计算。

而且,并非所有量子位都具有同样的噪声大小。从理论上来说,应该有可能利用某些材料的拓扑电子态,来创造噪声非常低的量子位。在这些材料的拓扑电子态中,用来编码二进制信息的电子态“形状”有助于防止随机噪声。目前,微软公司研究人员正在独特的量子材料中寻找这种拓扑态,但至于能否找到,或者是否可控,还是未知数。

IBM研究人员把一台特定设备的量子计算能力称为“量子体积”,其中包含了所有相关因素:量子位的数量和连接性,算法的深度,以及门质量的其他指标,比如噪声。量子体积描述了量子计算能力的各个特征。甘贝塔表示,目前最好的努力方向,是研制能增加可用量子体积的量子计算硬件。

这也是现在提及量子霸权,尚有些言过其实的原因之一。50量子位计算机胜过最先进传统计算机的景象虽然充满吸引力,但有很多问题悬而未决。在哪方面胜过?如果无法用一种得到了检验的传统设备来检查,你怎么知道量子计算机得出的答案是正确的?如果有适当的算法,你怎么敢肯定,传统计算机不会表现得更好?

所以,量子霸权是一个需要小心处理的概念。现在,一些研究人员更喜欢说“量子优势”(指量子设备更快的运算速度),而不是在量子计算机与传统计算机孰优孰劣的问题上下定论。由于其带有的种族和政治寓意,“霸权”这个词也招致了人们的反感。

不管你怎么称呼它,证明量子计算机能做到目前传统计算机做不到的事情,这对该领域具有重大的心理意义。“能清楚地证明量子优势,这将成为一个重要的里程碑。”艾塞特说。这将证明,量子计算机真的能拓展技术上的可能性。

这也许更像是具有象征意义的举动,而不是计算资源的转变。但这样的事情或许很重要,因为量子计算若要取得成功,靠的不是IBM和谷歌等公司突然开始销售强大的新机器,而是要靠研发者与用户之间互相交流、甚至是有点混乱的合作。只有当用户相信量子计算机值得去做,他们才会去打磨自己的技能。这就是IBM和谷歌为什么一准备好他们的量子设备就急于向外界开放的原因。除了向所有在线注册用户提供16量子位的IBM Q Experience以外,IBM目前还向企业客户提供20量子位的版本,包括摩根大通、戴姆勒、本田、三星和牛津大学等。这不仅有助于客户发现量子计算对他们的价值,还能创造出一个精通量子学的程序员群体,他们将设计资源、解决问题,弥补企业留下的空缺。

“量子计算想要获得发展并开花结果,我们必须让全世界能够去使用和了解它。”甘贝塔说,“对科学界和产业界而言,目前的重点是把量子技术准备好。”

翻译:于波

校对:其奇

造就:剧院式的线下演讲平台,发现最有创造力的思想


造就


量子计算核心问题:

1、如何产生量子;

2、如何稳定束缚;

3、如何输入数据;

4、如何获取结果;

看了几百篇文章,只有少数内容对12问题含糊其辞一带而过,34问题都没提到过,是因为后两个问题太简单了,懒得废话,还是作者都没弄明白?......都是跟风追屁的......真怀疑又是个忽悠经费的概念……

(上面之前的想法,现在据说商用了,我去学习下 IBM Q ...)


分享到:


相關文章: