量子摩尔定律问世
IBM今天宣布量子计算新里程碑:迄今为止最高的量子体积!与此同时,IBM发布了量子性能的“摩尔定律”,宣布其“量子霸权”时间表:为了在10年内实现量子霸权,需要每年将量子体积至少增加一倍。
量子摩尔定律来了!
在近日召开的2019 年美国物理学会三月会议上,IBM抛出了这个概念。
在这次会议上,IBM 宣布它最新型的量子计算机、今年1 月在CES 上亮相的全球首台商用量子计算一体机IBM Q System One提供了“迄今为止最高的量子体积”。
“量子体积”(Quantum Volume)是IBM 提出的一个专用性能指标,用于测量量子计算机的强大程度,其影响因素包括量子比特数、门和测量误差、设备交叉通信、以及设备连接和电路编译效率等。
因此,量子体积越大,量子计算机的性能就越强大,能够解决的实际问题就越多。
重要的是,IBM 发现量子体积遵循一种“摩尔定律”:其量子计算机实现的量子体积,每年增加一倍:
2017 年IBM 的Tenerife 设备(5-qubit) 已经实现了4 量子体积;
2018 年的IBM Q 设备(20-qubit),其量子体积是8;
2019 年最新推出的IBM Q System One(20-qubit),量子体积达到16.
也就是说,自2017 年以来,IBM 每年将量子体积翻了一番。
这种倍增与摩尔定律非常相似。摩尔定律由英特尔创始人之一的戈登・摩尔提出,即:
集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍
IBM还制定了一个雄心勃勃的时间表:为了在2020 年代实现量子霸权,我们需要每年至少增加一倍的量子体积!
量子体积是什么?
IBM 在博客上发布了对System Q One 的几个模型测试结果的概述。
当然,重点的测量指标是“量子体积”,团队还发表了一篇论文,详细描述了这个指标以及如何计算。
在论文中,他们指出,新的度量标准“量化了计算机成功实现的最大宽度和深度相同的随机电路”,并指出它还与错误率密切相关。
除了提供迄今为止最高的量子体积之外,IBM Q System One 的性能还反映了IBM 所测量到的最低错误率,平均2-qubit gate 的错误率小于2%,其最佳gate 的错误率小于1%。
低错误率很重要,因为要想构建功能完备、大规模、通用、容错的量子计算机,需要较长的相干时间和较低的错误率。
量子体积是衡量量子霸权(Quantum Advantage, 又称量子优势) 进展的一个基本性能指标,在这一点上,量子应用程序带来了超越经典计算机本身能力的重大、实际的好处。
接下来,详细阐述“量子体积”的概念和意义。
IBM对Q System One进行了详细的基准测试,并在博客中公布IBM Q Network系统“Tokyo”和“Poughkeepsie”以及公开发布的IBM Q Experience系统“Tenerife”的一些性能数据。
特定量子计算机的性能可以在两个层面上表示:与芯片中基础量子位相关的度量,我们称之为“量子器件”,以及整体系统性能。
下表比较了四个最近的IBM Q系统中量子器件的基本指标:
IBM Q System One的性能可以体现在测得的一些最优性能/最低错误率数字中。平均两个量子比特门误差小于2%,最佳门错误码率小于1%。
IBM的设备基本上受到相干时间的限制,对于IBM Q System One来说平均为73μs。
平均两比特率误差率在相干极限的两倍之内(1.68倍),该极限即由量子位T1和T2设定的理论极限(IBM QSystem One平均为74μs和69μs)。这表明IBM的控件引起的误差非常小,已经接近该器件上最高的量子比特保真度。
量子摩尔定律:为了实现量子优势,量子体积需要每年至少翻一番
为了在本世纪20年代实现量子优势,需要每年至少将“量子体积”增加一倍。
IBM的五量子比特设备Teumife的量子体积是2017年首次通过IBM Q Experience量子云服务提供的,目前的IBM Q 20-量子位的高端设备的量子体积为8。最新结果表明,IBM Q System One性能已经超过16量子体积。自2017年以来,IBM Q团队每年都实现了量子体积的倍增。
下面是一张量子系统开发路线图,以量子体积为衡量标准,量子系统计算力每年增长一倍。
有趣的是,其实可以将上图与Gordon Moore在1965年4月19日提出这张著名的“摩尔定律”图表进行比较:
为了实现0.01%的误差率,需要将相干时间提高到1-5毫秒,这是一个漫长的未来之路,在量子系统中实现这一目标需要克服很多激动人心的挑战。
在制定系统路线图的同时,需要同时研究元器件的基本物理特性,并测量了单个超导传输量子比特T1弛豫时间长达0.5毫秒(500微秒,质量因数为1500万),研究结果表明这些器件不存在基本材料上的限制问题。
虽然“量子体积”可用于表征设备性能,但业界也可以使用其他指标,例如测量设备上的纠缠量子位的方式,从中提取有关系统性能的更多信息。
对于多量子位纠缠,一个简单的衡量标准是n-qubit Greenberger-Horne-Zeilinger(GHZ)状态的断层摄影(可完全描述未知量子态的相同集合的过程),比如4量子位状态。
首先准备GHZ状态,并通过在不同基础上的各个量子位的投影,重建我们创建的状态。这里的量度指标是可实现的实验状态相对于目标状态的保真度。
状态层析成像对测量误差很敏感,因此如果不具备去除这些误差影响的技术,我们重建的4量子位GHZ状态的保真度为0.66,可以绘制出如下的密度矩阵:
不过,可以通过额外校准测量来确定测量误差的倒数,并对层析成像数据进行测量校正,从而降低这些误差。同样的数据经过校正处理后,保真度提升至0.98。请注意,此值不包括误差线,误差线将包含由于状态准备和测量误差引起的统计噪音和系统噪音。
Qiskit Ignis是一种理解和降低量子电路和器件噪音的框架,也是IBM的开源量子开发套件Qiskit的一部分。Qiskit Ignis中包括测量误差降噪。
降噪后的4比特GHZ状态层析成像,保真度为0.98
我们还对IBM Q System One上的真正纠缠状态进行了初步测量,共有多达18个量子比特纠缠。
这些初步结果,再加上量子体积和降低测量误差技术的改进,以及新的快速高保真量子位测量的成果,将在2019年3月美国物理学会的会议上公布。
量子计算的噪声中间量子(NISQ)时代的到来是一个激动人心的时刻——从硬件,软件到物理学的突破,再到新的量度标准的诞生。要在实用系统上继续改进“量子体积”量度标准,仍需要进一步的研究和应用。IBM计划在纽约Poughkeepsie开设新的量子计算中心,在2019年下半年制造具有相当性能水平的量子计算系统。
1965年,戈登·摩尔曾断言:“集成电子技术的未来是电子产品本身的未来。”而我们现在相信,量子计算的未来将成为计算机本身的未来。
史上最高量子体积的量子计算机,是何方神圣?
IBM Q System One,号称全球首台量子计算一体机,它体积如同大象,算力不敌小手机。
今年1 月,拉斯维加斯CES 展会上,Q System One 首次亮相。
IBM Q System One
它犹如一件艺术品,被安置在一个2.74 米高、2.74 宽的的硼硅玻璃柜中,中间挂着吊灯一般的量子计算核心硬件,由一个闪亮的圆柱形黑色外壳包裹,里面的所有部件都被精妙地隐藏起来。
当然,为了方便维护,玻璃外壳可以使用电机打开。
IBM Q System One 由许多自定义组件组成,这些组件协同工作,可用于最先进的基于云的量子计算程序,包括:
具有稳定性和自动校准能力的量子硬件设计,提供可重复、可预测的高质量量子比特。
制冷工程,提供连续冷却、孤立的量子环境。
紧凑型高精度电子元件,可严格控制大量量子比特。
量子固件,可管理系统运行状况并启用系统升级,无需用户停机。
经典计算能力,提供安全的云访问和量子算法的混合运行。
以及IBM 刚刚公布的,它的“量子体积” 达到了16。
如果明年IBM 如约推出32 量子体积的计算机,又会是何等的高端艺术品呢?
巨头搅局,量子计算竞争白热化
根据BCC Research 的数据,到2022 年,全球量子计算市场的复合年均增长率预计将达到37.3%,产值达到1.61 亿美元左右。再往后,2027 年该市场的年复合增长率将达到53% 左右,产值达到13 亿美元。
这个预测并不夸张。因为,这个领域的竞争正在加剧。
英特尔、微软、谷歌等主要竞争对手正在加入竞争。这些巨头科技公司正不遗余力地将量子计算商业化和民主化,使其进入商用领域。
英特尔最近与Bluefors 和Afore 合作推出了首款量子低温晶圆探针(Cryogenic Wafer Prober)。这种装置可以加速基于硅的量子芯片上量子比特的测试过程。
微软的量子网络也正在成长。作为该公司量子开发工具包的一部分,微软大力推广其“量子友好” 的最新编程语言Q#(Q-sharp)。微软的目标是开发一种通用量子计算机,采用坚固的基于纳米线的硬件结构,具有纠错机制。
以此同时,谷歌在去年7 月发布了名为Cirq 的开源软件工具包,以帮助开发人员测试量子计算算法。此外,在去年3 月,谷歌宣布推出Bristlecone,一台72 量子比特的通用量子计算机。
一、郭光灿院士:摩尔定律的终结与量子计算机的诞生
量子计算机的诞生,和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。
众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。
在20世纪80年代,摩尔定律很贴切地反映了信息技术行业发展。但“杞人忧天”的物理学家们,却提出了一个“大煞风景”的问题:
摩尔定律有没有终结的时候?
之所以提出这个问题,是因为摩尔定律的技术基础,天然地受到两个主要物理限制。
一是巨大的能耗,芯片有被烧坏的危险。
芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,计算机温度必然迅速上升,必须消耗大量能量来散热,否则芯片将被烧坏。
二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。
这两个限制就是物理学家们预言摩尔定律会终结的理由所在。
隧道效应:由微观粒子波动性所确定的量子效应,又称势垒贯穿。本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际也正是如此,这种现象称为隧道效应。
虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:
如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?
这就导致了量子计算概念的诞生。
量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。
甲之砒霜,乙之蜜糖。对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成为了资源。
量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。
但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长时间内摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。
直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展方向是低能耗、专用这两个方向,而不再是追求速度。
从这个例子,人们再次看到,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。
量子计算机:强大而复杂
量子计算机和电子计算机一样,其功用在于计算具体数学问题。
所不同的是,电子计算机所用的电子存储器,在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。
要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。
一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。
一台有 N 个量子比特的量子计算机,要能保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前还没有这个能力做到。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。
除此以外,还有其他量子计算模型,如:单向量子计算,分布式量子计算,但其研制的困难并没有减少。另外,还有拓扑量子计算,绝热量子计算等。
由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。
把量子计算机从“垃圾桶”捡回来——
量子编码与容错编码
实现量子计算机最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏将导致量子计算机并行运算能力基础消失,变成经典的串行运算。
所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能制造出来。直到后来,科学家发明了量子编码。
量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。
采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。
不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。
什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。
这个阈值具体是多大呢?
这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。
目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。
所以我们的目标就是研制大规模具有容错能力的通用量子计算机。
量子计算机的“量子芯”
量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。
20世纪90年代时,美国不知道什么样的物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。
固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。
2004以来,世界上许多著名的研究机构,如美国哈佛大学,麻省理工学院,普林斯顿大学,日本东京大学,荷兰Delft大学等都投入了很大的力量,在半导体量子点作为未来量子芯片的研究方面取得一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。
国际上,在自旋量子比特研究方面,2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究,实现了两比特的CNOT(受控非)。
虽然国际同行在电荷量子比特的研究中比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,从2010年左右制备单个量子点,然后2011年双量子点,2012-2013年实现两个量子点编码的单量子比特, 2014-2015实现四量子点编码的两个电荷量子比特,目前已研制成六个量子点编码为三个量子比特个并实现了三个比特量子门操作。已经达到国际领先水平。
超导量子芯片要比半导体量子芯片发展得更快。
近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在也达到了100多微秒。这花了13年的基础研究,提高了5万倍。
特别是,超导量子计算在某些指标上也表现更好,分别是:
1. 量子退相干时间超过0.1 ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。
2. 单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。
3. 已经实现9个量子比特的可控耦合。
4. 在量子非破坏性测量中,达到单发测量的精度
5. 在量子存储方面,实现超高品质因子谐振腔。
美国从90年代到现在,在基础研究阶段超导领域的突破,已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,以期全力争夺量子计算机这块“巨大的蛋糕”!
其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。
他们制定了一个计划:明年做到50个量子比特,定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。
整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。
尚未研制成功的量子计算机
我们仍有机会!
很多人都问,实际可用的量子计算机究竟什么时候能做出来?
中国和欧洲估计需要15年,美国认为会更快,美国目前的发展确实也更快。
量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也调动了起来。
美国的量子计算机研制之路分3个阶段:第一阶段政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。
反观中国的量子计算机发展,明显落后,软件、材料几乎没有人做,软硬件是相辅相成的,材料研究也需提早做准备。“十三五”重大研究计划,量子计算机应当“三驾马车”一起发展,硬件、软件、材料三个都要布局。
尽管落后,毕竟量子计算机尚未研制成功,我们仍有机会,只是时间已越来越紧迫!只要能发挥我国制度的优越性,集中资源有步骤地合理布局、支持,仍然大有可为!
二、IBM的野心:量子计算机也能实现摩尔定律
量子计算机拥有很强大的计算力,但是这对IBM来说,似乎还不够。据CNET消息,IBM制作了一个路线图,表达出了自己在量子计算领域的野心。
3月4日消息,量子计算机拥有很强大的计算力,但是这对IBM来说,似乎还不够。据CNET消息,IBM制作了一个路线图,表达出了自己在量子计算领域的野心。
IBM在图表的纵轴上列出了一个单位“量子体积(QuantumVolume)”。这一单位不仅可以测量量子计算机有多少量子比特(量子比特是衡量数据处理能力的关键指标),还可以测量计算机可以从不稳定的量子比特中,获得多少数据用量。
报道称,IBM在2017年已经实现了4量子体积,并在2018年达到了8,通过CES 2019上展示的量子计算机IBM QSystemOne(20量子比特),达到了16量子体积。
这种倍增与摩尔定律非常相似。摩尔定律由英特尔创始人之一的戈登·摩尔提出,即:
集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍
曾任英特尔CEO的大卫·豪斯此后将这一说法转变为:“预计每18个月,芯片的性能将提高一倍。”
摩尔定律几十年来都发挥着作用,但如今随着处理器电路的小型化已经不再那么可靠。
IBM研究人员Jay Gambetta和Sarah Sheldon在一份声明中谈到:
为了在21世纪20年代实现量子优势,我们需要每年至少增加两倍的量子体积。
三、摩尔定律失效?计算机芯片不会无限小下去
据Digital Trends网站报道,为什么现代计算机比以前的旧型号计算机要好得多?一种解释称,这与过去几十年微处理器技术的巨大进步有关。约每18个月,芯片中集成的晶体管数量就会翻一番。
这一趋势最早于1965年由英特尔联合创始人戈登·摩尔(Gordon Moore)发现,并被通俗地称为“摩尔定律”。摩尔定律推动着技术不断向前发展,并将其转化为数万亿美元的产业。处理能力难以想象的强大芯片,被应用在从家用电脑到自动驾驶汽车再到智能家居设备在内的各种产品中。
但摩尔定律或许不能无限期地延续下去。高科技产业可能喜欢其有关指数增长和数字驱动的“稀缺终结”的说法,但芯片上晶体管尺寸是存在物理极限的,不会一直减小下去。
虽然人眼看不到,但目前最新的芯片上集成有数十亿个晶体管。如果摩尔定律有效期能持续到2050年,工程师们将不得不利用尺寸小于一个氢原子的材料制造晶体管。企业跟上摩尔定律脚步的成本也越来越高昂。建造一座生产新型芯片的制造工厂需耗资数十亿美元。
由于这些因素,许多人预测摩尔定律将在2020年代初期逐步失效,届时芯片晶体管组件的尺寸将仅为5纳米左右。摩尔定律失效之后芯片产业会怎样发展呢?技术进步会停滞不前,出现类似我们目前仍然使用着20多年前就已经问世的Windows 95 PC那样的情况吗?
Digital Trends表示,未必。以下7点原因,解释了为什么摩尔定律失效并不意味着我们熟知的计算技术进步戛然而止。
摩尔定律失效天不会塌下来
想象一下,如果明天热力学定律或牛顿的三大运动定律不再发挥作用,我们将会面临怎样的灾难。虽然名字中有“定律”,但摩尔定律并非是这一类的普遍规律。相反,它只是一个通过观察所得的趋势,就像迈克尔·贝(Michael Bay)总是在夏季发行一部新的《变形金刚》(Transformers)电影那样——即使没有发行,也不会有什么大问题。
我们为什么会提出这一问题?因为摩尔定律失效不会引发引力突然消失那样的灾难。因为芯片上集成的晶体管数量不再每18个月翻一番,并不意味着计算技术的进步完全停止。它只不过意味着技术进步的速度会略微慢那么一点点。
我们可以把技术进步想象为石油。我们已经采完了容易开采的石油,现在,我们需要利用压裂等技术开采相对不容易开采的石油。
更好的算法和软件
思考一下那些赚大钱的NFL(美国国家橄榄球联盟)或NBA(美国职业篮球联赛)球星,他们根本无需考虑存钱的问题。虽然听起来有些混乱,但对于摩尔定律和软件之间的关系而言,这还算一个中肯的隐喻。
尽管存在编写漂亮的软件,但年复一年的是,很多时候程序员都不必太在意如何对软件优化,提高运行速度,因为他们知道明年推出的计算机处理器能更好地运行自己的代码。但是,如果摩尔定律失效,计算机处理器的进展不再像过去那样快,那么,我们就不能再依赖这种方法了。
通过优化软件提升芯片的处理能力,将受到更多重视。为了提高系统的运行速度和效率,这意味着开发更好的算法。除运行速度外,希望这也意味着更加简练的软件,以及对用户体验、界面和质量的高度关注。
即使摩尔定律明天失效,在硬件不再继续改进的情况下,优化今天的软件仍然可以提供数年甚至数十年的性能增长。
更专用的芯片
尽管如此,芯片设计人员克服通用芯片性能提升速度放慢的一个途径,就是开发更专用的处理器。图形处理单元(GPU)就是其中的一个例子。定制专用处理器也可应用在神经网络、自动驾驶汽车的计算机视觉、语音识别和物联网设备等应用中。
这些专用芯片设计可以提供一系列改进,例如更高的效能比。采用定制设计的芯片厂商包括市场领头羊英特尔、谷歌、Wave Computing、英伟达和IBM等。
就像编写质量更高的软件一样,芯片制造进步的放缓,迫使芯片设计师更重视新的芯片架构突破。
芯片不再是IT的全部
摩尔定律“诞生”于20世纪60年代中期,比计算机科学家蒂姆·伯纳-李(Tim Berners-Lee)发明万维网早了四分之一世纪。虽然自问世起摩尔定律一直有效,但在万物互联的时代,对本地处理能力的需求减少了。当然,PC、平板电脑或智能手机的许多功能都是在设备上完成的,但越来越多的功能不在设备上完成。
云计算技术意味着,许多大型计算问题可以由位于其他地方的大型数据中心中的大规模并行系统完成,这些系统包含的晶体管数量,是单台计算机的许多倍。人工智能任务尤其如此,例如我们在手机上使用的语音助手等。
通过在其他地方处理任务,并在处理完成时将答案传回本地计算机,机器的智能程度可以按指数级提高,而无需每隔18个月左右升级其处理器。
新材料和配置
硅谷之所以被称为硅谷是有原因的,但研究人员正在忙着研究未来可能由硅以外的其他材料制成的芯片。
例如,英特尔正在研究一些令人吃惊的技术,使晶体管以3D而非2D形式排列在芯片中,提高芯片集成的晶体管数量。其他材料,如位于元素周期表中第三和第五列的元素,可以取代硅成为制造芯片的材料,因为它们的导电性更高。
目前尚不清楚这些材料是否可以大规模生产或成本是否足够低,但是,考虑到科技行业巨头的综合专业知识,以及寻找新型芯片材料的动机——新的半导体材料可能在等着我们去发现。
量子计算
量子计算是本文列出的第二个最令人激动的原因。量子计算机现在还是一种实验性和非常昂贵的技术。它与我们所熟知的基于晶体管的二进制数字电子计算机完全不同。
量子计算不是将数据编码为0或1,而是处理量子比特,这些量子比特的值可以同时为0、1以及0和1。长话短说?这些状态的叠加,可以使量子计算机的运行速度和效率远远超过当前的主流计算机。
制造量子计算机面临诸多挑战(首先,它们需要在温度很低的环境中运行)。但是,如果工程师能够解决这个问题,我们或许能够以极其快的速度——让戈登·摩尔感到目眩——推动技术的巨大进步。
我们尚未想到的技术
在20世纪80年代,很少有人能预测到目前的智能手机。在1990年代初期,谷歌将成为目前这样的巨头,或像亚马逊这样的电子商务网站将成为第一家市值达1万亿美元公司的想法,是很疯狂的。
Digital Trends称,关键是,在涉及计算的未来时,我们不应该认为自己完全知道即将出现的新技术。是的,目前量子计算看起来像是摩尔定律之后计算技术的长期希望,但是,未来数十年后计算机看起来会完全不同于我们目前使用的计算机。
无论是机器的新配置、全新材料制成的芯片还是全新的亚原子研究——开创了将晶体管封装到芯片上的新方法,我们相信计算的未来——它具备的独创性——将是最好的。
四、一旦量子计算机研制成功,对于人类的意义到底有多大?
经过几十年的沉重打击,没有成功的希望,量子计算突然蜂拥而至,兴奋而活跃。
大约两年前,IBM向量子计算机提供了一种量子计算机:5量子比特资源的IBM Q
IBM(国际商业机器公司)或万国商业机器公司,简称IBM(International Business Machines Corporation)。总公司在纽约州阿蒙克市。1911年托马斯·沃森创立于美国,是全球最大的信息技术和业务解决方案公司,拥有全球雇员 30多万人,业务遍及160多个国家和地区。
这看起来更像是一个研究人员的玩具,而不是一个完成任何严肃的数字计算的方法。但全球有70,000个用户已经注册,而且这个资源的量子比现在已经翻了两番。
IBM 在线量子计算机实验
在过去的几个月里,IBM和英特尔已经宣布他们已经分别制造了50和49个量子比特的量子计算机。
有专家指出,在十年之内,量子计算机的计算能力就可能赶超当前的超级计算机。经典计算机是线性的,所有的输入态均相互正交。而思维往往是并行、多元、甚至跳跃。借助量子计算机,以人类思考方式进行超高速计算,有可能理解人类基于第一、二套认知系统的群体性行为、思想变化,甚至情绪变化。
位于纽约的IBM量子计算中心将量子计算机放在大型低温容器中,这些容器被冷却到绝对零度以上。
2017年5月3日,科技界的一则重磅消息:世界上第一台超越早期经典计算机的光量子计算机诞生。
这个“世界首台”是货真价实的“中国造”,属中国科学技术大学潘建伟教授及其同事等,联合浙江大学王浩华教授研究组攻关突破的成果。
如果现在传统计算机的速度是自行车,量子计算机的速度就好比飞机。
例如,一台操纵50个微观粒子的量子计算机,对特定问题的处理能力可超过目前世界最快的“神威·太湖之光”超级计算机。
世界科技巨头微软也在9月初宣布准备推出量子编程语言。
设计复杂药物和先进材料、大型数据库搜索等。对于人类的疾病,生理研究和航空航天深海探索,以及高精尖科技工程都有划时代的意义。
商业级量子计算机会成为未来科技的引擎。
就像蒸汽机是工业文明的象征一样,量子计算机带来的计算能力的突破将会有类似的意义。
在IBM的一台低温恒温器内连接一个50-qubit量子系统。
自然,量子计算机的路还很长,在退相干和容错等方面还有现在看来难以逾越的障碍。也有人认为,由于大公司的介入,实用量子计算机的问世时间会大大提前。也许今后会出现适用于量子计算的新“摩尔定律”,其发展速度出人意料。