編者按:
2016年11月18日,中科院軟件所研究員楊超與清華大學副教授薛巍、付昊桓等人聯(lián)合北師大組成的研究團隊憑借在“神威 太湖之光”上運行的“千萬核可擴展全球大氣非靜力云分辨模擬”應(yīng)用,一舉摘下國際高性能計算應(yīng)用領(lǐng)域最高獎—戈登貝爾獎。同時,中科院計算機網(wǎng)絡(luò)信息中心基于“神威 太湖之光”的“鈦合金微結(jié)構(gòu)演化相場模擬”也成功入圍,獲得提名。
高性能計算能力是國家重要科技實力的體現(xiàn),中科院、科技部率先部署和支持了高性能計算相關(guān)規(guī)劃與建設(shè)。到2016年,中國科學院高性能計算環(huán)境已為我國科研服務(wù)20年,支撐了多個國家重大規(guī)劃、千余項國家各類科研項目。
雖然中國高性能計算已經(jīng)取得了里程碑性的成績,不過科研工作者的腳步從未停止。他們已經(jīng)在思考,未來的發(fā)展方向在哪里,并將目光瞄向了“天然的超級計算機”—量子計算機。
本文根據(jù)郭光燦院士在“紀念HPC@CAS20周年學術(shù)研討會”上的報告整理、編輯而成,并經(jīng)本人審閱。
一、“杞人憂天”的物理學家們與量子計算機的誕生
量子計算機的誕生,和著名的摩爾定律有關(guān),還和“杞人憂天”的物理學家們有關(guān)。
眾所周知,摩爾定律的技術(shù)基礎(chǔ)是不斷提高電子芯片的集成度(單位芯片的晶體管數(shù))。集成度不斷提高,速度就不斷加快,我們的手機、電腦就能不斷更新?lián)Q代。
圖 1 摩爾定律
在20世紀80年代,摩爾定律很貼切地反映了信息技術(shù)行業(yè)發(fā)展。但“杞人憂天”的物理學家們,卻提出了一個“大煞風景”的問題:
摩爾定律有沒有終結(jié)的時候?
之所以提出這個問題,是因為摩爾定律的技術(shù)基礎(chǔ),天然地受到兩個主要物理限制。
一是巨大的能耗,芯片有被燒壞的危險。
芯片發(fā)熱主要是因為計算機門操作時,其中不可逆門操作會丟失比特。物理學家計算出每丟失一個比特所產(chǎn)生的熱量,操作速度越快,單位時間內(nèi)產(chǎn)生的熱量就越多,計算機溫度必然迅速上升,必須消耗大量能量來散熱,否則芯片將被燒壞。
二是為了提高集成度,晶體管越做越小,當小到只有一個電子時,量子效應(yīng)就會出現(xiàn)。電子將不再受歐姆定律管轄,由于它有隧道效應(yīng),本來無法穿過的壁壘也穿過去了,所以量子效應(yīng)會阻礙信息技術(shù)繼續(xù)按照摩爾定律發(fā)展。
這兩個限制就是物理學家們預(yù)言摩爾定律會終結(jié)的理由所在。
【隧道效應(yīng):
由微觀粒子波動性所確定的量子效應(yīng),又稱勢壘貫穿。本質(zhì)上是量子躍遷,粒子迅速穿越勢壘。在勢壘一邊平動的粒子,當動能小于勢壘高度時,按照經(jīng)典力學,粒子是不可能越過勢壘的;而對于微觀粒子,量子力學卻證明它仍有一定的概率貫穿勢壘,實際也正是如此,這種現(xiàn)象稱為隧道效應(yīng)?!?br>雖然這個預(yù)言在當時沒有任何影響力,但“杞人憂天”的物理學家們并不“死心”,繼續(xù)研究,提出了第二個問題:
如果摩爾定律終結(jié),在后摩爾時代,提高運算速度的途徑是什么?
這就導致了量子計算概念的誕生。
量子計算所遵從的薛定諤方程是可逆的,不會出現(xiàn)非可逆操作,所以耗能很??;而量子效應(yīng)正是提高量子計算并行運算能力的物理基礎(chǔ)。
甲之砒霜,乙之蜜糖。對于電子計算機來說是障礙的量子效應(yīng),對于量子計算機來說,反而成為了資源。
量子計算的概念最早是1982年由美國物理學家費曼提出的。1985年,英國物理學家又提出了“量子圖靈機”的概念,之后許多物理學家將“量子圖靈機”等效為量子的電子線路模型,并開始付諸實踐。
但當年這些概念的提出都沒有動搖摩爾定律在信息技術(shù)領(lǐng)域的地位,因為在相當長時間內(nèi)摩爾定律依然在支撐著電子計算機的運算速度的飛速提高。
直到今年,美國政府宣布,摩爾定律終結(jié)了。微電子未來的發(fā)展方向是低能耗、專用這兩個方向,而不再是追求速度。
從這個例子,人們再次看到,基礎(chǔ)研究可能在當時看不到有什么實際價值,但未來卻會發(fā)揮出巨大作用。
二、量子計算機雖然好,研制起來卻非常難
量子計算機和電子計算機一樣,其功用在于計算具體數(shù)學問題。
所不同的是,電子計算機所用的電子存儲器,在某個時間只能存一個數(shù)據(jù),它是確定的,操作一次就把一個比特(bit,存儲器最小單元)變成另一個比特,實行串行運算模式;而量子計算機利用量子性質(zhì),一個量子比特可以同時存儲兩個數(shù)值,N個量子比特可以同時存儲2的N次方數(shù)據(jù),操作一次會將這個2的N次方數(shù)據(jù)變成另外一個2的N次方數(shù)據(jù),以此類推,運行模式為一個CPU的并行運算模式,運行操作能力指數(shù)上升,這是量子計算機來自量子性的優(yōu)點。量子計算本來就是并行運算,所以說量子計算機天然就是“超級計算機”。
圖 2 量子計算機工作原理
要想研制量子計算機,除了要研制芯片、控制系統(tǒng)、測量裝置等硬件外,還需要研制與之相關(guān)的軟件,包括編程、算法、量子計算機的體系結(jié)構(gòu)等。
一臺量子計算機運行時,數(shù)據(jù)輸入后,被編制成量子體系的初始狀態(tài),按照量子計算機欲計算的函數(shù),運用相應(yīng)的量子算法和編程,編制成用于操作量子芯片中量子比特幺正操作變換,將量子計算機的初態(tài)變成末態(tài),最后對末態(tài)實施量子測量,讀出運算的結(jié)果。
一臺有N個量子比特的量子計算機,要能保證能夠?qū)嵤┮粋€量子比特的任意操作和任意兩個量子比特的受控非操作,才能進行由這兩個普適門操作的組合所構(gòu)成的幺正操作,完成量子計算機的運算任務(wù)。這是量子芯片的基本要求。如果要超越現(xiàn)有電子計算水平,需要多于1000個量子比特構(gòu)成的芯片。目前還沒有這個能力做到。這種基于“量子圖靈機”的標準量子計算是量子計算機研制的主流。
除此以外,還有其他量子計算模型,如:單向量子計算,分布式量子計算,但其研制的困難并沒有減少。另外,還有拓撲量子計算,絕熱量子計算等。
由于對硬件和軟件的全新要求,量子計算機的所有方面都需要重新進行研究,這就意味著量子計算是非常重要的交叉學科,是需要不同領(lǐng)域的人共同來做才能做成的復雜工程。
三、把量子計算機從“垃圾桶”撿回來的量子編碼與容錯編碼
實現(xiàn)量子計算機最困難的地方在于,這種宏觀量子系統(tǒng)是非常脆弱的,周圍的環(huán)境都會破壞量子相干性(消相干),一旦量子特性被破壞將導致量子計算機并行運算能力基礎(chǔ)消失,變成經(jīng)典的串行運算。
所以,早期許多科學家認為量子計算機只是紙上談兵,不可能制造出來。直到后來,科學家發(fā)明了量子編碼。
量子編碼的發(fā)現(xiàn)等于把量子計算機從“垃圾桶”里又撿回來了。
采用起碼5個量子比特編碼成1個邏輯比特,可以糾正消相干引起的所有錯誤。
不僅如此,為了避免在操作中的錯誤,使其能夠及時糾錯,科學家又研究容錯編碼,在所有量子操作都可能出錯的情況下,它仍然能夠?qū)⒄麄€系統(tǒng) 糾回理想的狀態(tài)。這是非常關(guān)鍵的。
什么條件下能容錯呢?這里有個容錯閾值定理。每次操作,出錯率要低于某個閾值,如果大于這個閾值,則無法容錯。
這個閾值具體是多大呢?
這與計算機結(jié)構(gòu)有關(guān),考慮到量子計算的實際構(gòu)型問題,在一維或準一維的構(gòu)型中,容錯的閾值為10^-5,在二維情況(采用表面碼來編碼比特)中,閾值為10^-2。
目前,英國Lucas團隊的離子阱模型、美國Martinis團隊的超導模型在單、雙比特下操作精度已達到這個閾值。
所以我們的目標就是研制大規(guī)模具有容錯能力的通用量子計算機。
四、量子計算機的“量子芯”
量子芯片的研究已經(jīng)從早期對各種可能的物理系統(tǒng)的廣泛研究,逐步聚焦到了少數(shù)物理系統(tǒng)。
20世紀90年代時,美國不知道什么樣物理體系可以做成量子芯片,摸索了多年之后,發(fā)現(xiàn)許多體系根本不可能最終做成量子計算機,所以他們轉(zhuǎn)而重點支持固態(tài)系統(tǒng)。
固態(tài)系統(tǒng)的優(yōu)點是易于集成(能夠升級量子比特數(shù)目),但缺點是容錯性不好,固態(tài)系統(tǒng)的消相干特別嚴重,相干時間很短,操控誤差大。
2004以來,世界上許多著名的研究機構(gòu),如美國哈佛大學,麻省理工學院,普林斯頓大學,日本東京大學,荷蘭Delft大學等都投入了很大的力量,在半導體量子點作為未來量子芯片的研究方面取得一系列重大進展。最近幾年,半導體量子芯片的相干時間已經(jīng)提高到200微秒。
國際上,在自旋量子比特研究方面,2012年做到兩個比特之后,一直到2015年,還是停留在四個量子點編碼的兩個自旋量子比特研究,實現(xiàn)了兩比特的CNOT(受控非)。
雖然國際同行在電荷量子比特的研究中比我們早,但是至今也只做到四個量子點編碼的兩個比特。我們研究組在電荷量子比特上的研究,從2010年左右制備單個量子點,然后2011年雙量子點,2012~2013年實現(xiàn)兩個量子點編碼的單量子比特, 2014~2015實現(xiàn)四量子點編碼的兩個電荷量子比特,目前已研制成六個量子點編碼為三個量子比特個并實現(xiàn)了三個比特量子門操作。已經(jīng)達到國際領(lǐng)先水平。
表 1 與國際領(lǐng)先研究的對比
超導量子芯片要比半導體量子芯片發(fā)展得更快。
近幾年,科學家使用各種方法把超導的相干時間盡可能拉長,到現(xiàn)在也達到了100多微秒。這花了13年的基礎(chǔ)研究,提高了5萬倍。
特別是,超導量子計算在某些指標上也表現(xiàn)更好,分別是:
1.量子退相干時間超過0.1ms,高于邏輯門操作時間1000倍以上,接近可實用化的下限。
2.單比特和兩比特門運算的保真度分別達到99.94%和99.4%,達到量子計算理論的容錯率閾值要求。
3. 已經(jīng)實現(xiàn)9個量子比特的可控耦合。
4. 在量子非破壞性測量中,達到單發(fā)測量的精度
5. 在量子存儲方面,實現(xiàn)超高品質(zhì)因子諧振腔。
美國從90年代到現(xiàn)在,在基礎(chǔ)研究階段超導領(lǐng)域的突破,已經(jīng)引起了企業(yè)的重視。美國所有重大的科技公司,包括微軟、蘋果、谷歌都在量子計算機研制領(lǐng)域投入了巨大的力量,以期全力爭奪量子計算機這塊“巨大的蛋糕”!
其中,最典型的就是谷歌在量子計算機領(lǐng)域的布局。它從加州大學圣芭芭拉分校高薪引進國際上超導芯片做得最好的J. Matinis團隊(23人),從事量子人工智能方面的研究。
他們制定了一個計劃:明年做到50個量子比特,定這個目標是因為,如果能做49個量子比特的話,在大數(shù)據(jù)處理等方面,就遠遠超過了電子計算機所有可能的能力。
整體來看,量子計算現(xiàn)在正處于“從晶體管向集成電路過渡階段”。
五、尚未研制成功的量子計算機,我們?nèi)杂袡C會!
很多人都問,實際可用的量子計算機究竟什么時候能做出來?
中國和歐洲估計需要15年,美國認為會更快,美國目前的發(fā)展確實也更快。
量子計算是量子信息領(lǐng)域的主流研究方向,從90年代開始,美國就在這方面花大力氣研究,在硬件、軟件、材料各個方面投入巨大,并且它有完整的對量子計算研究的整體策劃,不僅各個指標超越世界其他國家,各個大公司的積極性也調(diào)動了起來。
美國的量子計算機研制之路分3個階段:第一階段政府主導,主要做基礎(chǔ)研究;第二階段,企業(yè)開始投入;第三階段,加快產(chǎn)出速度。
反觀中國的量子計算機發(fā)展,明顯落后,軟件、材料幾乎沒有人做,軟硬件是相輔相成的,材料研究也需提早做準備。“十三五”重大研究計劃,量子計算機應(yīng)當“三駕馬車”一起發(fā)展,硬件、軟件、材料三個都要布局。
盡管落后,畢竟量子計算機尚未研制成功,我們?nèi)杂袡C會,只是時間已越來越緊迫!只要能發(fā)揮我國制度的優(yōu)越性,集中資源有步驟地合理布局、支持,仍然大有可為!