Ai極限真的存在嗎?

1901年,天文學家、數學家Simon Newcomb表示,人類不可能造出比空氣更輕的飛機。1908年,萊特兄弟的飛機試飛成功。

 

二戰過後,美國人公開表示,長距離火箭遙不可及。沒過多久,俄羅斯的巨型火箭率先進入了外太空。

 

時間轉到今天。當AI浸入各行各業的同時,對AI的質疑也紛至沓來。AI寒冬是否又會再次到來呢?OpenAI的聯合創始人兼CTO Greg Brockman在近日的一次演講中發表了他的看法:

 

   

不想看視頻的同學,可以閱讀下面的文字喲~~~



“AI最終能達到什麼樣的高度,我現在還無法下一個定論。但目前的質疑呢,我看大多是不靠譜的!”

 

他從“科學發展史”、“AI發展史”、“深度學習的極限”和“算力極限”四個方面闡釋了他的論點。

 

科學發展史


有啥疑問,直接找專家呀!他們的觀點大多錯不了。

 

但歷史一遍遍證明,專家們錯得可是太離譜了。

 

在1901年天文學家、數學家Simon Newcomb表示,比空氣更重的飛機是完全不可能的。於是在1908年 他知道了萊特兄弟的飛機。



沒關係,他承認這是可能的,但是他認爲,這永遠不可能商業化,因爲這樣的飛機不可能擴大到可以容下一個乘客和一個飛行員。於是又被啪啪打臉了。

 

二戰後,美國人和俄羅斯人都關注了德國的V-2科技,這兩國都想做同一件事那就是建立ICBM(An intercontinental ballistic missile,洲際彈道×××),這意味着他們要擴大原本V-2火箭的規模十倍以上,造一個200噸的火箭。

 

美國人看到這,認識這完全不可能,就在接下來的五年裏完全放棄了長距離火箭。

 

俄羅斯人說,可以沒問題,因爲我們就是要造一個巨型火箭。當太空比賽開始時,俄羅斯人說,看吧,我們已經有這個巨型火箭了!於是,俄羅斯人率先進入了外太空。

 

專家們在很多方面確實有很多先見之明,但是不能因爲有人說了一些什麼,就終止了某一領域的研究。

 

AI發展史


 

 

接下來,讓我們來回顧一下AI發展史。

 

AI是一個講究潮流的領域,這個領域裏有多種多樣的潮流。比如,某一個十年非常流行SVM(支持向量機),下一個十年,又流行別的模型了。

 

現在我們正處於最新潮流中,下一個十年又會流行別的。這話沒錯,這個過程是持續的,目前看不到盡頭。那就讓我們來挖一挖,這幾十年AI到底經歷了哪些潮流。

 

1959年,perceptron(感知機)被公開發表了。不止科學雜誌瘋狂報道,連紐約時報也寫到:“像感知機這樣神奇的東西,有一天它能識別人叫出他們的名字,並且在多種語言間實時翻譯。”

 

1960年代,以Marvin Minsky和Papert爲代表的人強烈反對感知機,發起各種運動,並且最終成功了。

 

在1969年他們表了一本書,裏面證明了多種感知機無法解決的基本問題。

 

因此所有研究經費斷供,所有基金斷供。AI第一次寒冬來臨。

 

這一波經費究竟被用到了哪裏了?很大一部分其實被用來構建更大的電腦了。

 

二十年後的80年代,反向傳播開始流行。

 

有趣得是,反向傳播吸引來的人不是計算機科學家,而是認知科學家。他們真正激動的不是關於如何建造大型系統,如何拓寬這些技術的邊界,而是關於理解大腦。他們非常樂意接受這樣一種人造的系統,能夠對他們的研究有那麼一點關聯。

 

由於算力的限制,反向傳播一度也經歷了大量質疑。但今天,在空前算力的支持下,反向傳播將AI帶到了全新高度。


深度學習的極限


 

所以,深度學習發展的極限是什麼呢?

 

有很多人已經對此發表過看法了。一個很好的例子是,去年一位傑出的深度學習評論家說:深度學習模型將永遠不能學會長距離規劃,不論你用多少數據去訓練它。

 

今年,我們在Dota比賽裏展示了OpenAI Five,也就是Dota系統的長期規劃能力。

 

一個月後,那個評論家又說,你可以用足夠密集的空間樣本來解決任何問題,但只有當你的數據量很小的時候纔有趣。

 

我認爲,看看過去幾年結果的具體例子是很有啓發性的,然後讓我們想想:人們對之前的深度學習的侷限性有什麼看法,對之後的又有什麼看法?

 

在深度Q學習出現之前,我們感覺深度學習僅僅是關於靜態數據集的。突然,我們把神經網絡投射到屏幕上面,然後給出一個分數,然後它開始能夠玩轉這些簡單的遊戲。

 

再舉個例子。之前人們說,深度學習只會感知,永遠也做不到最難的自然語言處理任務比如翻譯。結果又被打臉了。

 

 

我們也許可以得出這樣的結論,深度學習會取代所有的監督學習,並且在這些特定的領域內勝過人類的聰明才智。比如AlphaGo,比如我們的Dota工作。強化學習僅通過自身就能解決這個難以置信的難題。

 

當然,你仍然可能會產生這樣的質疑:我們如何把這個東西應用到現實世界中去?強化學習是不是隻會玩遊戲呢?無論任務是怎麼樣的,我們都需要有一個完美的模擬器吧。

 

今年,我們用Dota系統訓練了一個機器人,真的就是用Dota系統來指向這個環境。然後,我們可以教會這個機械手臂操縱小方塊,這是一個人類程序員無法完成的任務——製造這種機械手的公司做這個已經有20年了,現在每年大概才賣出10個,因爲沒有程序員能實現這樣的功能。

 

所以,你甚至不需要一個完美的模擬器,你只需要一個剛好能夠完成手頭上任務的模擬器。

 

我想我們都聽過這個說法,人工智能的進步有三大支柱:計算、算法和標記數據。

 

但是現在,如果你再看一遍這個說法,你會發現“標記數據”其實也不是必要的。

 

比如今年,自然語言處理(NLP)領域最新研究表明,你可以讓一個模型在大量無監督文本上學習,然後使用非常少量的監督數據進行了微調,這樣你就能夠在各種各樣的NLP任務之間設置最先進的技術水平。

 

所以說,深度學習的極限真的很難被定義。

 

算力極限


 

最後,我們再來看看算力極限,這大概是近年來限制AI發展的關鍵要素之一。



如果我們看看過去六年裏發生了什麼,就會發現計算經過了一個瘋狂爆炸式的增長。每三個半月,我們的算力就會翻一倍。

 

怎麼理解增長速度呢?就像在2012年的時候,你的手機電池只能堅持一天。在2018,它就能堅持800年的時間,到2023年,它能堅持一億年的時間。

 

再換一種方式來理解,一個2023年的未來系統在30秒內消耗的計算量,將會相當於我們今天的Dota系統一個月的計算量。

 

這個數字太瘋狂了,看起來有點不可理喻,但是這樣的事情其實已經發生了。20世紀90年代的大規模成果之一TD GAM,在一個現代的GPU上計算大約只需要5秒鐘。

 

所以我們把這些事情合起來看,可以得到的結論是:我們也很難去界定算力的極限。

 

我們真的很難說有什麼是做不成的,這意味着我們需要開始積極主動的思考,這些系統將會給世界帶來什麼樣的影響?

 

在暢想人工智能時,我們應該少依靠直覺,多依靠證據和假設。

 

我們都在創造自己認爲的會對未來產生巨大影響的技術,所以我們要對這事情好好負責!

鄭州專業不孕不育醫院:http://jbk.39.net/yiyuanzaixian/zztjyy/

  鄭州不孕不育醫院×××:http://jbk.39.net/yiyuanzaixian/zztjyy/

 


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章