有人说是量子信息技术,我想提一下量子计算的本质是什么?
世界运转的一大规律就是物质和能量的相互转化。但是,人类一直以来都是在相当大的量级上利用这一过程。这个学过初中化学的就知道,1摩尔=6.02*10^23个原子,平时用的量比如发电、化学反应等等都不知道有多少个摩尔了。一个化学反应涉及的原子太多了,我们根本无法描述细节,都是很粗糙的模型。
量子物理至今无法解释测量是如何导致波函数坍塌的,因为测量就引入了很多相互作用的量。也无法解释很多多体物理模型比如RKKY相互作用。原子物理能解释的现象不超过氢原子,固体物理能解释的现象都是基于很多假设比如能带理论、绝热模型等等。如何填补中间这个鸿沟,从一个一个原子的相互作用搭建起宏观反应的模型几乎是无法完成的任务。
然而,量子计算很可能填补这个中间的鸿沟。量子计算的一个比特就是一个一个二能级系统,我们可以认为就是一个人工原子。多个比特就是多个原子,一台能够进行Shor算法的量子计算机需要包含至少一亿个比特,这就是对至少一亿个原子进行操控,这里面会遇到的问题和难度难以想象,对人类技术的推动和知识的扩展也必定是难以想象的。
就我所知道的,现在要做出操控一亿个原子的量子计算机,需要攻破的难关如下:
1.量子比特层面,进一步降低电荷噪声的影响,提高保真度。现在的保真度只有99%左右,还是太低了,支撑的计算深度有限。即使是容错编码,需要的辅助比特也太多了。这一层需要人们加深对噪声的分析,以及人们对芯片加工过程中品质控制的把握。
2.控制线路方面,4K或者更低温度下的片上微波器件,包括微波源、ADC/DAC、环形器等等。现在的微波器件主要都是更高温度且不能集成扩展的,带来的插入损耗和噪声都非常多,而且难以扩展。这一层需要人们研究超低温领域的一系列多频段电子器件,这些成果很快就可以转移到其他低温电磁学测量和物理研究中。
3.人机交互方面,快速、准确的自动化比特测量和校准系统。现在的比特都是实验室人员首先寻找比特频率然后进行相关测量校准的,听说潘院士的十比特芯片测了一年左右。未来亿万级别的比特需要的工作量难以想象,所以利用神经网络等机器学习技术加速这种测量和校准很有必要。
当人们解决以上问题后,低温凝聚态物理和低温电磁学的研究都会得到加深,然后利用量子计算机研究化学反应的演化过程、多体物理的相互作用甚至量子场论;提供如旅行商问题的决策优化、商品推荐等商业功能。这些计算力的提升也许会在发现新材料、能源管理方案等方面提供支持。
想象一下,力学的发展为蒸汽革命提供了发展的强劲动力,电磁学的发展为电气革命提供了广阔的发展空间,量子力学的发展为半导体技术的发展奠定了坚实的基础(半导体异质结正是基于量子力学的能带理论);那么,量子计算的发展是怎么样的呢?
不考虑量子比特的来源,量子计算中量子比特的读出和操控所用到的物理基础正是量子电动力学(Quantum electrodynamics,QED)的发展。
那么,我们可不可以说量子电动力学的发展会引领第四次工业革命呢?
可能。但是,可能不一定够。如果跟前面的两次革命比较起来,我认为量子场论的进一步发展,比如可以包容广义相对论的结果的出现,有可能会打开未来的大门。这个过程,也许通过量子计算机就可以得到解答,那么这么说也可以说量子计算机是引领第四次工业革命的技术。
这么说,哪个国家想引领第四次工业革命,就必须掌握量子计算机了。可能十几年之后,每个国家的科研重镇都会有几台量子计算机,像超算一样解决重大社会需求,也像对撞机一样解决重大科研问题。最终从中找到第四次工业革命的钥匙。