神經擬態技術會與AI芯片形成競爭嗎?

早在20世紀70年代,科學家就已經設想將人類大腦的功能映射到硬件上,就是直接用硬件來“模擬”人類大腦的結構,這種方法稱爲神經擬態計算。經過近 50 年的發展,目前神經擬態技術終於開始走向商業化,這類硬件被稱爲神經擬態芯片。而人工智能加速器(或稱“AI芯片”)是一類專用於人工智能(特別是人工神經網絡、機器視覺、機器學習等)硬件加速的微處理器或計算系統。在這樣的發展背景下,一個新的問題產生了:神經擬態芯片會與AI芯片發生競爭嗎?

乍看之下,這種新型的神經擬態(neuromorphic)芯片與人工智能加速器這一類似的尖端領域有幾個共同點。這兩者都是爲了處理人工神經網絡而設計的,與 CPU 相比,這兩者都提供了性能上的改進,而且都聲稱更爲節能。

不過,這種相似性也就到此爲止了:神經擬態芯片只爲被稱爲脈衝網絡(spiking networks)的特殊神經網絡而設計。而且它們的結構與傳統計算機中看到的任何結構都有着本質上的區別(沒有什麼比乘積累加運算(multiply-accumulate)單元更傳統的了)。隨着新的應用和技術不斷涌現,現在討論這些設備的市場將會是什麼樣子的,可能還爲時尚早。

《電子工程專輯》(EE Times)就這些技術是真正互補還是有所重疊這一問題,請教了多名領先人工智能加速器公司首席執行官。

最大的問題是,這些計算範式最終會不會進一步形成相互競爭的局面呢?

市場定位不同

Intel 可不這麼認爲。這家芯片巨頭憑藉其 Loihi 芯片在神經擬態計算研究方面的地位,以及憑藉其數據中心 CPU 系列產品,加之收購了人工智能加速器公司 Habana Labs,Intel 在人工智能加速領域獨佔鱉頭。

Intel 的神經元計算實驗室主任 Mike Davies 認爲,神經擬態計算並不能直接與傳統的人工智能加速器相提並論,比如 Habana Labs 開發的那些加速器。Davies 稱:“與大數據、監督式學習問題相比,神經擬態計算在不同的制度、不同的計算利基中是有用的。”

目前的人工智能加速器是爲深度學習而設計的,深度學習需要使用大量的數據來訓練大型網絡。這需要巨大的 I/O 帶寬和內存帶寬。

Davies 補充說,“神經擬態模型與此完全不同,它們處理的是單個數據樣本……當真實世界的數據到達芯片時,需要以儘可能低的延遲和功耗立即進行處理。”

“與邊緣計算設備的深度學習人工智能芯片相比,邊緣計算設備的不同之處在於,我們也在研究能夠適應並能夠實時學習的模型,這些模型是基於深度學習範式不太支持的單個數據樣本生成的。”

換句話說,Intel 的觀點是,“我們談論的是針對完全不同類型的神經網絡兩種不同計算方法。”

願景相似

在人工智能加速器方面,Kalray 首席執行官 Eric Baissus 表示,他認爲該公司的大規模並行處理器陣列(massively parallel processor array,MPPA)架構與一些新興的神經擬態方法之間存在一些相似之處。

“神經擬態計算非常有趣,這種新的思維方式非常接近我們的設想。”Baissus 表示,“人類大腦有很多功能是並行進行各自的計算,然後你將這些結果一點一點地整合起來,這和我們的架構設計方式非常接近。”

Kalray 的最新芯片 Coolidge 可用來加速人工智能在數據中心和汽車領域中的應用。雖然 Coolidge 並不是一個純粹的人工智能加速器,在邊緣計算領域有更廣泛的應用,但大規模並行處理器陣列確實適合人工智能加速,該公司在 CES 2020 上展示了 Coolidge 的人工智能用例。

“我相信,我們會看到有趣的神經擬態產品。對此,我不會感到不安,因爲首先,我認爲我們的技術非常接近這種類型的方法。”Baissus 說,“我相信,市場如此之大,你將會看到許多不同類型架構的應用程序。”

經濟視野

XMOS 首席執行官 Mark Lippet 表示,神經擬態計算的商業化應用仍需時日,尤其是針對其目標市場,包括物聯網和消費設備。

他說道:“我認爲,這對我們來說太過遙遠,短期內我們的經濟視野不會出現這種情況的。”

XMOS 的 Xcore 人工智能芯片 將該公司的 IP 集成到了人工智能加速器中,用於語音接口應用,這些應用需要人工智能實現關鍵詞檢測或字典功能。它適合於一個新的類別,即跨界處理器(crossover processors),它將應用處理器的性能與單片機的易用性、低功耗和實時操作相結合起來。

Lippett 還表示,任何涉及到改變人們對編程系統的思維方式的技術,一旦進入市場,都將面臨挑戰。

即使是基於 RISC 架構的 Xcore,也面臨着市場挑戰。Lippett 稱,任何涉及新編程範式的技術都會遇到阻力。

“我們得出的關鍵結論是,你需要非常接近現有的、熟悉的編程模型,才能快速採用。因此,我認爲這就是一個挑戰,從成本的角度來看,讓這些技術的好處變得可行,同時還要讓社區現有技能能夠利用這些技術,否則,採用起來會非常緩慢。”他補充道,“我很高興,我們在短期內不會與神經擬態計算競爭,但很明顯,神經擬態計算是一項令人興奮的技術,值得關注。”

靈感來自大自然

Hailo 首席執行官 Orr Danon 指出,軟件是一個潛在的問題。

他說,“我在軟件領域工作了很多年,我一直關注那些在硬件層面上看起來不錯,但在實際開發場景中卻不可行的想法,我並不是說情況會如此,但這是一個主要的擔憂。”

Hailo 最近完成了 6000 萬美元的 B 輪融資,其中部分資金將用於繼續開發 Hailo-8 人工智能加速器芯片的軟件。該架構混合了計算、存儲和控制塊,並依靠軟件將相鄰塊分配到神經網絡的不同層,具體取決於它們各自的需求。

“我們不應該美化工具,而應該美化目的,”他說,“我們不想根據鳥類飛翔的原理來製造飛機。從大自然中獲得靈感是好事,但問題是,你能得到什麼價值?你是否真正解決了問題的正確部分?”

Danno 表示,將新的計算架構限制在模仿大腦的某個特定部分,可能會導致瓶頸,他懷疑這可能比性能優勢更重要。他稱:“另一方面,我認爲,如果你想帶來創新和重大改進,你就必須採取大膽的方法。從這個意義上來說,我很喜歡神經擬態的做法,但在實現它們的承諾之前,它們確實必須證明之前的觀點。”

邊緣計算與雲計算

Graphcore 首席執行官 Nigel Toon 表示,該公司的人工智能加速器是爲不同的垂直領域設計的。“我們認爲這些神經擬態計算的公司不一定是我們直接的競爭對手。”他說,“就市場表現而言,它們通常都處於非常邊緣的位置,試圖開拓低功耗、接近傳感器應用的領域……也許以更傳統的方式構建的神經網絡會更適合這些應用,但它們肯定不能與 Graphcore 直接競爭,因爲我們構建的是更大的、基於雲計算的訓練和大規模部署的推理系統。”

至於神經擬態計算所面臨的挑戰,Toon 的話聽起來似曾相似。他說:“軟件,軟件,還是軟件!構建任何處理器的挑戰都屬於軟件領域的範疇。太多時候,人們都是製作出有趣的處理器,然後就琢磨怎麼在這些處理器上進行編程。而現實情況是,你需要弄清楚你要如何編程,然後去構建一個能有效支持的處理器。你必須瞭解軟件編程方法,並構建一個處理器來實現這一點。”

Graphcore 的方法始於這樣一種認識,即機器學習模型本質上是大型的高維圖,其中頂點是計算,邊緣是計算元素之間的通信。該公司最初開發了在計算機級別上對圖進行描述的軟件,然後設計了一個處理器來處理它們。圖的高維性在一般存儲空間中很難處理,因爲只有兩塊存儲空間可以相鄰存儲。數據最終變得非常稀疏,問題的碎片散落在內存中。因此,Graphcore 在其智能處理單元芯片中放置了大量的內存和內存帶寬。

“最終,我們會發現的是,作爲研究項目,神經擬態計算是有趣的。但這可能不是用硅製作高效處理器的方法。”Toon 說,“引用分子計算作爲未來的範式,可能會與目前正在開發的神經擬態方法產生協同作用。分子計算是一個新興的領域,利用 DNA 等生物分子作爲計算機,以減少 Landauer 限制,即擦除一位信息所需的能量。”

譯註:Landauer 原理指出,擦除一位信息就要消耗能量 *kT*ln2。它語言了計算過程物理極限的存在。Landauer 建立信息擦除原理的關鍵是引入邏輯不可逆(logical irreversibility)的概念。從計算的角度講,任何普適的計算都必須包括初始化步驟。初始化擦除計算機已存的信息,使得計算機從任意一個可以達到的態 A 回到參考初態 R。由於計算機的每個邏輯狀態必須對應於一個物理態,邏輯不可逆在物理上表現爲自由度約化的耗散效應,是一種典型的不可逆過程。這就意味着,計算必然要消耗一定的能量,並以熱量的形式散發掉。計算的速度越快,產生的熱量就越多。當計算機芯片單位面積上集成的元件數目越多,發熱的功率就越大。這種不可逆計算的耗熱機制大大限制了計算機芯片的尺度,給出其物理極限,從而導致摩爾經驗定律的終結。更爲詳細的解釋可查閱 Wikipedia 的 Landauer’s principle 詞條。

Toon 說,“但是,半導體產業已經投資了數萬億美元來用硅製造計算機,我們知道如何做到這一點,也知道如何批量生產。也許最好的途徑是研究出我們如何構建使用不同架構的硅計算機,並構建這些新的機器智能方法。”

原文鏈接:

https://www.eetimes.com/will-neuromorphic-computing-compete-with-todays-ai-accelerators/

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章