偉大前程與技術難關:量子機器學習該如何走進現實?

0 評論 9445 瀏覽 4 收藏 16 分鐘

量子為什么能夠計算?量子機器學習該如何走進現實?本文回答了量子計算的原理,發展現狀,以及成長預期,與大家分享!

在我們描述21世紀剛剛過去的第二個十年的技術版圖中,人工智能(AI)、大數據(Big Data)、云計算(Cloud)、物聯網(IoT)是幾個無論如何也繞不開的術語。在闡述科技發展趨勢的文章里,如果不把這些術語作為開篇,簡直都不好展開論述。

而在下一個十年,在這一長串的革命性技術的名單后面,可能還要再加一個量子計算。正如人工智能,因為大數據的喂養而使得神經網絡算法得以成熟,因為云計算的加持才擁有了充沛的算力,因為和物聯網的融合而使得萬物產生智能。

那么,人工智能與量子計算的交往又能產生怎樣的“劇烈反應”呢?

2017年,圖靈獎得主姚期智教授在一次演講時說:“如果能夠把量子計算和AI放在一起,我們可能做出連大自然都沒有想到的事情?!?/p>

這等“敢叫天地換新顏”的技術前景,對于大多數普通人而言可能還略顯遙遠。

但量子計算和量子機器學習的技術研究早已在全球多家科研機構和科技巨頭的實驗室中落地開花,可以向外界和技術人員提供基礎的算法工具和資源,讓公眾可以一睹量子與智能的神奇力量。

近日,百度飛槳官宣發布了量子機器學習開發工具Paddle Quantum——量槳,成為國內唯一支持量子機器學習的深度學習平臺。量槳的作用就是提供了一套量子機器學習的工具集,開放給科研人員,進行量子神經網絡的搭建測試以及量子人工智能的研究。

量槳的出現,到底能為量子機器學習帶來多少顯著進展,尚待時間檢驗,但一定程度上推動量子機器學習在我國的普及,為廣大AI和量子計算的研究者提供了一條新的學習途徑。

按捺不住學習熱情的你,一定想到量子計算和人工智能的技術交匯處,一窺量子機器學習的究竟,來衡量下投身入局的可能吧?

為什么“量子計算”很配“人工智能”?

進入正題之前,我們不妨先來簡單了解下量子計算的基礎背景,來降低下代入難度。

一、先來看,量子為什么能夠計算

二十世紀,自然界的一個重大物理發現就是量子力學,而量子力學主要的發現是基本粒子有兩種狀態——疊加和糾纏。

通俗來理解,疊加,就是量子同時既是這樣又是那樣,一旦被觀察或測量就會變成其中的一個樣子,這就是著名的“測不準”;糾纏,就是兩個成對的量子粒子,即使相隔宇宙兩端,也能發生暗戳戳的神秘互動,這就是大名鼎鼎的“量子糾纏”。

“疊加”決定了量子的并行計算的基礎,“糾纏”決定了量子傳輸的基礎。讓量子的這些特性被用于計算時,就能用來處理非常復雜的數據計算。

我們知道,經典計算的基本單位是比特(Bit),比特只能在0和1兩個狀態之間切換。經典計算只能在0和1的開合中實現線性計算,只不過現在的計算力非常巨大,一秒鐘可以進行數十億甚至更高的計算。

而量子計算的基本單位的量子比特(Qubit),量子比特因為疊加效應就可以同時具有0和1的特征。隨著量子比特數量的增加,量子比特的計算能力將會以指數級的方式增加。

也就是,一個量子比特可以同時處于兩個狀態(0 和 1)。因此,兩個相互作用的量子比特可以同時存儲全部4個二進制值。通常,“n”個量子比特可以同時表示“2的n次方”個經典二進制值。

我們用一個“玉米田迷宮”的例子來理解經典計算和量子計算的不同:經典計算就如同一個人在玉米田里尋找出口,這個人會先找一條路走下去,遇到阻礙就返回,再找一條路重新開始,再遇到阻礙就再返回,直到找到出口。

而量子計算就如同有了多個分身,可以同時探索玉米迷宮里的每一條路徑,同時一次就把出口找到。

這樣,量子計算的疊加態以及糾纏態形成的疊加坍縮構成的高并行計算能力,就為人工智能特別是機器學習所需要的數據處理和算法訓練提供了一種新的可能。

量子計算和人工智能也在發生一種相互“糾纏”又密不可分的關系,但這并不意味著量子計算加上機器學習,就可以立刻碰撞出顯著的成果。

二、量子機器學習仍在“襁褓”之初

量子機器學習(Quantum ML)是一個量子計算和機器學習交叉的的跨學科技術領域,二者的結合可以產生一種互利互惠的結果。一方面,量子計算最主要的目標之一,就是借助于量子特性開發高性能的量子機器學習算法,從而加快或拓寬人工智能的應用場景。

另一方面,量子計算在大規模應用落地之前還有許多非常棘手的科學與工程技術難題有待解決,這需要大量的先進計算工具,特別是AI技術幫助突破量子計算研發瓶頸。

在機器學習和量子計算按照算法和數據二維劃分下,可以得到四種不同分類——C-C、Q-C、C-Q和Q-Q。C-C就是傳統的機器學習;Q-Q屬于量子計算的開放域;而C-Q主要就是通過機器學習算法來解決量子物理的問題,比如對量子系統的控制對象建模,對擾動、噪聲等參數特征的辨識,推動量子計算發展。而Q-C就是利用量子理論改進機器學習,推動機器學習算法的量子化。

一種方法是通過量子計算把原先經典計算中不可計算的問題變為可計算的, 從而大幅降低機器學習算法的計算復雜度;一種方法是通過量子計算并行加速的優勢與機器學習的算法深度結合,催生出全新的量子機器學習算法模型。

傳統的神經網絡只能使用單個網絡來存儲許多算法模式;而量子神經網絡,因為量子疊加效應帶來的并行性,可以使用許多網絡來存儲許多算法模式。

不過,量子神經網絡的實現并不容易,因為最終這些算法想要真正發揮作用則需量子計算機(處理器)的支持。

據報道,2018 年,意大利帕維亞大學的研究團隊在只有4個量子比特的量子計算機上實現了世界上第一個單層神經網絡。

具有4個量子比特的人工神經元的量子電路

這一模型能夠準確地模擬單個神經元的行為,像這樣的單層模型能夠識別簡單的模式。然而,它還沒有擴展到由多層神經元組成的深度神經網絡。不過,這至少是在量子硬件上有效訓練量子神經網絡而邁出的第一步。

與傳統神經網絡相比,量子神經網絡具有很多優勢,比如,指數級記憶容量、更快的學習和處理速度、更小的規模以及更高的穩定性和可靠性等。

盡管量子硬件的進度稍顯緩慢,但算法模型理論可以先行。谷歌的Quantum AI 團隊就在當時已經預先構建出一個可以在量子計算機上訓練的深度神經網絡的理論模型。

而到了今年3月,谷歌又宣布開源一款用于訓練量子模型的機器學習庫 TensorFlow Quantum(簡稱 TFQ)。TFQ 包含了特定量子計算所需的基本結構,例如量子比特、門、電路和測量運算符。用戶指定的量子計算然后可以在模擬或真實硬件上執行。

目前,量子機器學習的發展仍然處于起步階段,當前的一些應用上面可以做到使用量子神經網絡來生成一些演奏出全新聲音的新樂器等。

未來量子機器學習的應用前景卻更加令人興奮,比如擁有指數級存儲和檢索能力的量子神經網絡可以模擬人類大腦或者模擬黑洞,能夠幫助人類真正探索世界最深邃的本質。這也許才是量子機器學習和量子計算發揮終極價值的場域。

三、量子機器學習的成長“難關”

量子計算本身就是一項復雜技術,而量子機器學習這一交叉技術的研發難度自然又進一步提高。量子機器學習算法的成熟自然要得益于軟硬件兩方面的同時提升,而在這兩方現在都仍然還存在一些難關要闖過。首先,我們要知道,傳統的機器學習語言并不能直接地移植到量子計算上面,而是需要先把當前的機器學習代碼轉換成使用量子比特的量子態,從而構建出量子神經網絡。

這就是所謂的量子機器學習的I/O瓶頸,所謂I/O瓶頸是指,目前大部分量子機器學習算法或者需要把大規模數據集編碼為量子態,或者只是把問題的解生成在量子態中。因此輸入階段的前處理和信息提取階段的后處理將耗費大量時間,乃至抵消量子算法所節省的時間。

IBM的一個 50 量子比特位計算系統的中心結構

其次,則是真正意義上的通用量子計算機尚沒有出現,而現在意義上的上千個量子比特的量子計算機在可以良好抗噪聲、解決退相干問題上還存在著一定的問題,也就是還不能達到迪文森佐標準的量子計算機。

這意味著能夠支撐量子機器學習算法得以實際驗證的硬件手段仍然是缺乏的,研究者大多只能通過量子模擬器的方式來實現多個量子比特的運算。

比如說,此次谷歌TFQ為量子機器學習研究提供了一個內含大約 50~100 量子比特的噪聲中級量子處理器(NISQ)的工具,從而控制/ 建模自然或人工量子系統。

基于此,現在TFQ的量子機器學習模型可以處理量子數據模型和混合量子經典模型,幫助開發者能夠改進現有的量子算法或發現一些新的算法。

基于軟硬件上面的現實困難,量子機器學習算法上面的突破還有很長的時間。

此外,在一些計算問題上,量子機器學習的算法和經典算法相比是否一定有加速優勢,則仍然存疑。2018年,年僅18歲的華裔學生Ewin Tang受量子推薦算法的啟發,設計出了一個經典算法,它能以和量子算法相近的速度解決推薦問題。

這一思路給了研究者以啟示:通過量子算法思維能促進經典算法的發展,這也是量子計算研究意義的另一種體現。

盡管目前來說,量子機器學習既沒有像去年谷歌所宣稱的“量子霸權”那樣引人矚目,也不能像人工智能在現實生活的廣泛應用而成績顯著。但量子機器學習更像是一個面向未來世界的計算產物?;氐綆资昵?,量子計算的實現和機器學習的神經網絡的實現,都一度被認為是不可能的事情。而這二者竟然都能夠實現,現在還處在了相互結合的交匯點上,已然是人類技術的一次奇遇。

那么站在當下,一個普通的技術愛好者也可以通過像百度、谷歌這樣的量子計算平臺的開放,就可以親身來進行量子算法的開發和測試,更不能不說千載難逢、幸運之至。

 

作者:藏狐,微信公眾號:腦極體

本文由 @腦極體 原創發布于人人都是產品經理。未經許可,禁止轉載

題圖來自Pixabay,基于CC0協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!