AI时代,技术巨轮正滚动前进,基础设施变革也已经露出苗头。
今年初,工业和信息化部、教育部、科技部、交通运输部、文化和旅游部、国务院国资委、中国科学院等7部门联合印发的《关于推动未来产业创新发展的实施意见》中,量子计算机、量子信息技术等量子计算相关技术被多次提及。显然量子计算已经成为未来中国产业创新的关键发力点之一。
近年来,包括中国在内,全球各个科技强国都在积极布局量子计算领域。尤其是伴随着生成式AI的火爆,人工智能再一次来到了科技的风口,而量子计算被看做人工智能发展的重要技术之一,在人工智能领域,量子计算机可以帮助人工智能以类似人类的方式更有效地执行复杂的任务,比如使人形机器人能够在不可预知的情况下实时作出优化决策。
2024年1月6日,我国第三代自主超导量子计算机“本源悟空”上线运行并向全球公众限时免费开放。到2月26日,“本源悟空”先后被104个国家用户访问超200万次,并成功完成16万个全球量子计算任务。
2023年10月,国际知名学术期刊《物理评论快报》发文,中国科学技术大学潘建伟、陆朝阳等组成的研究团队与中国科学院上海微系统与信息技术研究所、国家并行计算机工程技术研究中心合作,成功构建255个光子的量子计算原型机“九章三号”。该成果再度刷新光量子信息技术世界纪录,该原型机求解高斯玻色取样数学问题比目前全球最快的超级计算机“Frontier”快一亿亿倍。“九章三号”1微秒可算出的最复杂样本,“Frontier”约需计算200亿年.......
以上仅是冰山一角,伴随着量子计算的火爆,也必将对传统数据中心带来“冲击”,甚至在不久的将来将彻底颠覆数据中心的架构。
数据中心的概念发展至今已经有80余年,如今的数据中心已经与80年前的数据中心完全不同。当下,智能计算中心、超级计算中心正在不断增多,传统数据中心机柜功率也在不断攀升。
随着量子技术的发展,数据中心将迎来又一次颠覆性的变革。
全国人大代表、中国科学院量子信息重点实验室副主任、中国科学技术大学教授郭国平也在今年的两会期间提出建议:“让超级计算、智能计算、量子计算三股中国计算力量尽快‘牵手’,协同工作,称为‘三算融合’。在国家布局的超算互联网基础上,加快建成国家量子计算与超级计算融合互联网,全方位提升大国算力。出台专项资金支持多部门协同研究‘量算—智算—超算’融合,构建一体化‘量子—超算—智算’算力网络和服务平台,率先打造国家级‘三算融合’创新平台,抢占全球先进算力高地。”
显然,数据中心下一站越来越近了。
为什么是量子计算?
数据中心的发展要回溯到20世纪40年代,ENIAC的问世是业界公认的数据中心发展的“起点”。
1964年,世界上首台超级计算机“CDC6600”诞生,该计算机也被视作当下超算中心的鼻祖。1972年,IBM VM/370 OS的商业化,开启了数据中心虚拟化之路。
20世纪90年代中期,互联网的出现,让数据中心的业务模式有了新的改变,网络提供商、主机托管商得到发展,新的服务模式逐渐被大众接受。
2010年前后,随着云计算技术的崛起,分布式、虚拟化、超融合等技术逐步在数据中心应用,这些技术为数据中心的架构带来翻天覆地的改变。
2017年,IBM发布全球首个商业“通用”量子计算服务。在未来回看,这一年或许会成为数据中心发展史的一个重要节点。
2023年6月6日,IBM通过官网宣布,公司计划在德国埃宁根建设其首个欧洲量子数据中心,以促进政府、企业和机构获取尖端量子计算能力。该数据中心预计于明年投产,配备多个IBM量子计算系统,每个系统均配备有达到公用事业规模的量子处理器,即超过100个量子比特的处理器.......
要理解这一动态背后的意义,就要了解量子计算的特性——量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式,即利用量子叠加和纠缠等物理特性,以微观粒子构成的量子比特为基本单元,通过量子态的受控演化实现计算处理。
量子的叠加性,使得量子计算机与传统计算机相比,能够实现算力呈指数级规模拓展和爆发式增长。
传统计算机的基础原理是二极管和逻辑门,每一个信息单元叫做比特,只能代表0或者1中的任意一个数字,对二进制数字或字节组成的信息进行存储和处理;而量子态叠加原理使得每个量子比特同时处于比特0和比特1的状态,通过两种状态的叠加实现并行存储和计算。这样操纵1个量子比特的量子计算机可以同时操纵2个状态,当一个量子计算机同时操控n个量子比特的时候,它实际上能够同时操控2的N次方个状态。
量子计算“天生具备”的并行性,使得人们不再需要并行多台计算机、配置多个CPU,就可以实现并行计算。一台量子计算机可以同时对2的n次方的个数进行数学运算,相当于经典计算机重复实施2的n次方次操作。且随着量子比特数量的增加,量子计算机的运算速度优势将越来越明显,量子计算机与经典计算机相比,其运行速度,就好像如今的电脑与珠算相比。以破解RSA密码为例,用目前最强大的超级计算机来破解RSA密码系统,预计要用到60万年,而用量子计算机只需要3小时左右。
随着以ChatGPT为代表的大语言模型的崛起,以及包括计算化学、生物医疗、机器学习、智慧城市、自动驾驶等等需要高算力支持的应用的逐步落地,人们对算力的渴望愈发强烈,算力服务化已是必然趋势。
量子计算以其强大的并行计算能力,单位时间内不可匹敌的运算速度,在上述应用迅速发展的背景下,可以预见,在未来,随着需求的不断增加,量子计算机和量子云服务将成为下一次数据中心技术革新的突破口。
安全、能耗、高性能,数据中心发展的三座“大山”
随着数据中心自身产业的发展,以及AI技术快速发展对数字中心带来更大需求,安全、能耗和性能的矛盾已经越来越突出,可以说已经成为“阻碍”数据中心可持续发展的三座大山。而量子计算的快速发展,或将“夷平”这三座大山。
安全方面。如今大部分行业企业都将数据作为企业重要财产的一部分。随着各类数字技术的发展,数据中心的内部存放、运行的数据安全也面临着日益严峻的考验,数据泄露问题已成为困扰数据中心及用户的主要问题之一。在此背景下,量子计算技术的成熟,对于数据中心而言,可以说是一把“双刃剑”。
一方面,量子计算的发展让传统保密技术被破解的风险将变得越来越高。例如,基于RSA或椭圆曲线加密方法的公钥密码体制等方法,都将在面对量子计算机的攻击时失去效力。
另一方面,量子计算也提供了新的安全和隐私保护手段,如基于量子纠缠和不可克隆性的量子密钥分发技术,以及基于量子随机性和不可兼容性的量子安全多方计算技术,可以实现无条件安全的通信和计算。量子技术将成为数据中心提升安全性的重要手段之一。
能耗方面。在全球各国都在有序推进碳中和进程的背景下,作为高载能行业的数据中心行业实现碳中和目标,义不容辞。据生态环境部发布的数据显示,2021年我国数据中心总耗电量达到2166亿千瓦时,占全社会用电量的2.6%,碳排放则占全国碳排放量的1.14%左右。
随着各行业用户对算力需求越来越大,数据中心如何平衡算力与能耗之间的关系,如何提升算效,已是行业最大的痛点之一。
量子计算的计算时间相较于传统计算机有了质的飞跃,这意味着,量子计算机在某些问题上能够节省大量的计算时间,大幅提升了“算效”,从而降低能耗。另一方面,在量子计算中,我们可以通过一些如量子降温、量子误差校正等优化技术,有效减少制冷等硬件成本,从而降低量子计算机的能耗。
高性能方面。在诸如ChatGPT等生成式AI爆火的当下,对数据中心算力的要求越来越高,而量子计算的逐步成熟,将满足人们对于算力日益庞大的需求。
传统计算机在处理某些复杂的问题时显得力不从心,例如在社交网络分析、金融工程、物理模拟、生物工程等方面需要投入大量的时间和成本。而量子计算机则在这些领域具有更好的应用前景。
例如,谷歌量子计算机“Sycamore”在2019年完成了以前无法完成的量子计算任务,证明了量子计算机在某些领域能够超越传统计算。谷歌方面表示,Sycamore仅用了53个量子位(目前谷歌最新的Sycamore已经可达到70个量子比特)就在几分钟内完成了一项高难度计算任务,而这项任务用彼时最先进的超级计算机——IBM Summit耗时1万年也无法完成。
2022年11月, IBM发布了其新的433个比特的Osprey芯片(世界上最强大的量子处理器)。IBM在其开源的量子工具包Qiskit上有20多台量子计算机,该工具包迄今已被下载超过45万次。
更多类似上述技术的发展也将会为数据中心带来新的机会与挑战。在数据中心的领域中,通过引入量子计算技术,可以实现更快速的数据分析与处理,从而为数据中心高效运营与发展,提供强有力的动力。
综上所述,无论是安全、能耗,还是提升数据中心性能方面,量子计算相较于传统计算都有着“碾压式”的优势,相信量子计算将成为“夷平”阻碍数据中心发展三座大山过程中,最“得心应手”的工具。
普及的三个门槛
量子计算机虽然相较于传统计算机有着碾压式的优势,在就目前的技术而言,量子计算机对于绝大多数提供算力服务的公司,以及算力应用者而言,是一件“奢侈品”。目前,量子计算机更多是被应用于高精尖的科学研究及人类对于大自然奥秘的探索。
量子计算机之所以没得以“普及”,主要有以下几个问题。
首先是环境要求。
众所周知,计算机的运用会产生热量,且越精密的计算机对于周边运行环境越高。这点对于量子计算机而言亦是如此。量子计算机实现准确的运行需要实现“超导”。
“超导”温度在最早要求是“绝对零度”(等于摄氏温标零下273.15度【-273.15℃】)。经过众多科学家不懈的努力,如今利用液氮冷却,以及“高温”超导材料方面的技术突破,目前,中国超导临界温度已提高到-120℃左右,但这个温度实现的“成本”依旧很高。
今年3月7日,美国罗切斯特大学的物理学家兰加·迪亚斯(Ranga Dias)及其团队在美国物理学会会议上称,他们在最新的实验中研发了一种由氢、氮和镥的材料,约在21℃的温度以及1G帕(约相当于1万个标准大气压)的压力下进入超导状态。但这套方案的商业化难度依旧很大,1万倍标准大气压(1标准大气压=101.325千帕)的工业难度显著高于液冷。
综上,计算环境对于量子计算机而言是一个巨大的挑战,也是决定量子计算能否真正商业化普及的关键。
其次是可靠性。
不像传统机器那样使用 0 或 1 的信息位,量子计算机的基本计算单元是“量子比特”。利用量子力学的叠加性、纠缠性等原理,量子比特可以同时处于两种状态,因此可以获得远高于经典计算机的计算能力。
而实现大规模量子计算需要大量的量子比特,而实现大规模量子比特的技术还非常困难。这是因为量子比特非常脆弱,容易受到来自外部世界的“量子测量”和“量子干扰”的影响。要维持这种状态必须排除噪声的干扰,因为即便是最细微的干扰,都会破坏这种叠加态,导致它们失去“量子优势”,从而无法完成量子比特之间的复杂运算。
为了保持大规模量子比特的稳定,科学家们需要通过各种技术手段去解决来自外界的“量子干扰”和“量子测量”问题。为此,可以将大规模的量子比特固定在一个核磁共振系统中,或者使用超冷原子的速冷技术,以保证量子比特的寿命和稳定性。
除此之外,量子计算机还需要一种快速读取量子比特状态的技术,这也是量子计算机技术上的重要难点之一。
如何解决“量子”的稳定性差的问题,成为提升量子计算准确率和精度的关键,这点也将成为未来量子计算能否“照进现实”的关键。
此外,还有硬件成本。
以目前技术而言,量子计算机的研究和制造成本非常高,一方面,量子计算机需要的超导材料价格高昂,且制造工艺成本也十分高。
以IBM的Falcon系统为例,每次运行有用的量子计算需要1000亿-5000亿量子比特秒,而每个量子比特秒的成本约为0.05美元。
据统计,单个量子比特的成本可能高达10000美元左右。而随着量子比特的数量不断提升,这个数值可能会呈现几何倍数式的增长。
受限于上述三个方面的问题,量子计算离真正的商业化普及还需要走很长的一段路,但是随着量子计算的发展,对数据中心的颠覆将是必然的趋势,或许在不久的将来,我们也将能用上诸如《流浪地球》里量子计算机“MOSS”,到那时候我们每个人都可以随身携带一座“数据中心”。
(本文首发于钛媒体App,作者|张申宇)