MIT研究人員警告:深度學習正在接近計算極限

本文最初發表於venturebeat,由InfoQ中文站翻譯並分享。

我們正在接近深度學習的計算極限。這是根據麻省理工學院、MIT-IBM Watson AI Lab、安德伍德國際學院(Underwood International College)和巴西利亞大學(University of Brasilia)的研究人員 最新的一項研究中發現的。

深度學習領域的進步在“很大程度上”依賴於計算機的發展。他們斷言,深度學習要實現持續的進步,將需要“戲劇性的”提高更有計算效率的方法,要麼通過改變現有技術,要麼通過新的、尚未發現的方法。

“我們的研究表明,深度學習的計算開銷並不是偶然的,而是經過設計的。這種靈活性使它在建模各種現象方面表現出色,並且優於專家模型,同時也使它的計算開銷顯著增加。”合著者寫道,“儘管如此,我們發現深度學習模型的實際計算負擔比理論(已知)下限增長得更快,這表明實質性的改進是有可能的。

深度學習是機器學習的一個子領域,研究受大腦結構和功能啓發的算法。這些算法被稱爲人工智能網絡,它由層層排列的函數(神經元)組成,它們將信號傳遞給其他神經元。這些信號是輸入到網絡中的數據的產物,從一層傳遞到另一層,並對網絡進行緩慢的“調整”,實際上是在調整每個連接的突觸強度(權重)。通過數據集中提取特徵並識別交叉樣本的趨勢,網絡最終學會做出預測。

原文鏈接:【https://www.infoq.cn/article/w1qr0gtG8sGWDJdMe6Pg】。未經作者許可,禁止轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章