福利 | 如何創造可信的AI?人工智能大牛蓋瑞·馬庫斯的11條建議

文末有福利哦~

(本文來自湛廬文化策劃出版新書《如何創造可信的AI》,作者蓋瑞·馬庫斯(Gary Marcus )  歐內斯特·戴維斯(Ernest Davis))

在人工智能領域中,深度學習掀起了最近一次大的浪潮,也是目前最受關注、獲得投資最多的一類。但要知道,深度學習並非機器學習唯一的方法,更非AI唯一的方法(人工智能>機器學習>深度學習)。

在發展的過程中,深度學習也暴露出了3個核心問題——貪婪性、不透明性和脆弱性。迄今爲止,深度學習還只能在控制良好、很少出現意外的環境中進行。圍棋就是一個完美的環境,其規則和棋盤兩千年來都未發生變化,但在現實世界的許多負責場景中,我們不會想要依賴這項技術,因爲它不可信。

當AI的應用場景從2C走向2B時,意味着AI的應用要離開內容推薦、語言識別等用戶對錯誤容忍度較高的領域,走入自動駕駛、醫療診斷、金融決策等涉及人類切身利益的“深水區”中。那麼,理想的AI與現實的AI之間爲什麼會有這麼大的差距?我們現在能信任機器人醫生嗎?或者說人類和人工智能會有信任嗎?如何才能補救和克服這些呢?

從認知科學中獲得的 11 個啓示

劉慈欣在《三體》中提到,即使北宋牀弩的射程和機關槍差不多,但兩者在基本原理上的差距決定了它們之間的不同。

《如何創造可信的AI》作者蓋瑞·馬庫斯指出,只有建立一個全新的航道,纔可能達到“可信的AI”這一目標。馬庫斯系統性地闡述了對當前AI研究界的批判,從認識科學領域中針對性地給出了11條可執行的建議。

馬庫斯以認知科學、心理學、語言學和哲學爲基礎提取出11條關鍵線索,共同核心是用內在更豐富的結構來表達信息、建立認知、建立起其他智能體系的核心要素,比如因果推理能力等。

第一,沒有銀彈——破除對“終極算法”的迷信

深度學習落入了“尋找銀彈”(銀彈在歐洲民間傳說中是吸血鬼和狼人剋星,引申義爲致命武器、殺手鐗)的陷阱,用充滿“殘差項”和“損失函數”等術語的全新數學方法來分析世界,依然侷限於“獎勵最大化”的角度,而不去思考,若想獲得對世界的“深度理解”,整個體系中還需要引入哪些東西。

神經科學告訴我們大腦是極爲複雜的。真正擁有智慧和複雜性的系統,很有可能像大腦一樣充滿複雜性。任何一個提出將智慧凝練成爲單一原則的理論,或是簡化成爲單一“終極算法”的理論,都將誤入歧途。

第二,認知大量利用內部表徵——人類的認知不是從出生後的學習纔開始,而是依賴於進化留下的先天表徵

從嚴格的技術意義上講,神經網絡也具有表徵,比如表示輸入、輸出和隱藏單元的向量,但幾乎完全不具備更加豐富的內容。在經典人工智能中,知識完全是由這類表徵的積累所組成的,而推理則是建立在此基礎之上的。如果事實本身模糊不清,得到正確的推理就會難於上青天。外顯表徵的缺失,也在DeepMind的雅達利遊戲系統中造成了類似的問題。DeepMind的雅達利遊戲系統之所以在《打磚塊》這類遊戲的場景發生稍許變化時便會崩潰,原因就在於它實際上根本不表徵擋板、球和牆壁等抽象概念。

沒有這樣的表徵,就不可能有認知模型。沒有豐富的認知模型,就不可能有魯棒性。你所能擁有的只是大量的數據,然後指望着新事物不會與之前的事物有太大的出入。當這個希望破滅時,整個體系便崩潰了。

在爲複雜問題構建有效系統時,豐富的表徵通常是必不可少的。DeepMind在開發以人類(或超人)水平下圍棋的AlphaGo系統時,就放棄了先前雅達利遊戲系統所採用的“僅從像素學習”的方法,以圍棋棋盤和圍棋規則的詳細表徵爲起步,一直用手工的機制來尋找走棋策略的樹形圖和各種對抗手段。

第三,抽象和概括在認知中發揮着至關重要的作用

我們的認知大部分是相當抽象的。例如,“X是Y的姐妹”可用來形容許多不同的人之間的關係:瑪利亞·奧巴馬是薩沙·奧巴馬的姐妹,安妮公主是查爾斯王子的姐妹,等等。我們不僅知道哪些具體的人是姐妹,還知道姐妹的一般意義,並能把這種知識用在個體身上。比如,我們知道,如果兩個人有相同的父母,他們就是兄弟姐妹的關係。如果我們知道勞拉·英格斯·懷德是查爾斯·英格斯和卡羅琳·英格斯的女兒,還發現瑪麗·英格斯也是他們的女兒,那麼我們就可以推斷,瑪麗和勞拉是姐妹,我們也可以推斷:瑪麗和勞拉很可能非常熟識,因爲絕大多數人都和他們的兄弟姐妹一起生活過;兩人之間還可能有些相像,還有一些共同的基因特徵;等等。

認知模型和常識的基礎表徵都建立在這些抽象關係的豐富集合之上,以複雜的結構組合在一起。人類可以對任何東西進行抽象,時間(“晚上10:35”)、空間(“北極”)、特殊事件(“亞伯拉罕·林肯被暗殺”)、社會政治組織(“美國國務院”“暗網”)、特徵(“美”“疲勞”)、關係(“姐妹”“棋局上擊敗”)、理論(“馬克思主義”)、理論構造(“重力”“語法”)等,並將這些東西用在句子、解釋、比較或故事敘述之中,對極其複雜的情況剝絲抽繭,得到最基礎的要素,從而令人類心智獲得對世界進行一般性推理的能力。

第四,認知系統是高度結構化的

我們可以預期,真正的人工智能很可能也是高度結構化的,在應對給定的認知挑戰時,其大部分能力也將源自在正確的時間以正確的方式對這種結構進行利用。具有諷刺意味的是,當前的趨勢與這樣的願景幾乎完全相反。現在的機器學習界偏向於利用盡可能少的內部結構形成單一同質機制的端到端模型。

在某種程度上,這樣的系統從概念上來看更簡單,用不着爲感知、預測等分別設計單獨的算法。而且,初看起來,該模型大體上效果還算理想,有一部令人印象深刻的視頻似乎也證明了這一點。那麼,既然用一個龐大的網絡和正確的訓練集就能簡單易行地達到目標,爲什麼還要將感知、決策和預測視爲其中的獨立模塊,然後費心費力地建立混合系統呢?

問題就在於,這樣的系統幾乎不具備所需的靈活性。

在關鍵的應用場景中,最優秀的AI研究人員致力於解決複雜問題時,常常會使用混合系統,我們預期,這樣的情況在未來會越來越多。AI和大腦一樣,必須要有結構,利用不同的工具來解決複雜問題的不同方面。

第五,即便是看似簡單的認知,有時也需要多種工具

大腦也利用幾種不同的模式來處理概念,利用定義,利用典型特徵,或利用關鍵示例。我們經常會同時關注某個類別的特徵是什麼,以及爲了令其滿足某種形式的標準,必須符合什麼條件。

AI面臨的一個關鍵挑戰,就是在捕捉抽象事實的機制(絕大多數哺乳動物是胎生)和處理這個世界不可避免的異常情況的機制(鴨嘴獸這種哺乳動物會產卵)之間,尋求相對的平衡。通用人工智能既需要能識別圖像的深度學習機制,也需要能進行推理和概括的機制,這種機制更接近於經典人工智能的機制以及規則和抽象的世界。

要獲得適用範圍更廣的AI,我們必須將許多不同的工具組織在一起,有些是老舊的,有些是嶄新的,還有一些是我們尚未發現的。

第六,人類思想和語言是由成分組成的

在喬姆斯基看來,語言的本質,用更早期的一位語言學家威廉·馮·洪堡的話來說,就是“有限方法的無限使用”。借有限的大腦和有限的語言數據,我們創造出了一種語法,能讓我們說出並理解無限的句子,在許多情況下,我們可以用更小的成分構造出更大的句子,比如用單詞和短語組成上面這句話。如果我們說,“水手愛上了那個女孩”,那麼我們就可以將這句話作爲組成要素,用在更大的句子之中,“瑪麗亞想象水手愛上了那個女孩”,而這個更大的句子還可以作爲組成要素,用在還要大的句子之中“克里斯寫了一篇關於瑪麗亞想象水手愛上了那個女孩的文章”,以這樣的方式接着類推,每一句話我們都可以輕鬆理解。

在深度學習中,每個輸入和輸出都可以被描述爲一個向量,網絡中的每個“神經元”都爲相關向量貢獻一個數字。由此,許多年以來,機器學習領域的研究人員一直試圖將單詞以向量的形式進行編碼,認爲任何兩個在意義上相似的單詞都應該使用相似的向量編碼。

類似的技術被谷歌所採用,並體現在了谷歌最近在機器翻譯方面取得的進展之中。那麼,爲什麼不以這種方式來表徵所有的思想呢?

因爲句子和單詞不同。我們不能通過單詞在各類情況下的用法來推測其意思。例如貓的意思,至少與我們聽說過的所有“貓”的用法的平均情況有些許相似,或(從技術角度講)像是深度學習系統用於表徵的矢量空間中的一堆點。但每一個句子都是不同的:John is easy to please(約翰很好哄)和John is eager to please(約翰迫不及待的想要取悅別人)並不是完全相似的,雖然兩句話中的字母乍看去並沒有多大區別。John is easy to please和John is not easy to please的意思則完全不同。在句子中多加一個單詞,就能將句子的整個意思全部改變。深度學習在沒有高度結構化句子表徵的情況下工作,往往會在處理細微差別時遇到問題。

這個例子告訴我們:統計數字經常能近似地表示意義,但永遠不可能抓住真正的意思。如果不能精準地捕捉單個單詞的意義,就更不能準確地捕捉複雜的思想或描述它們的句子。

第七,對世界的魯棒理解,既需要自上向下的知識,也需要自下而上的信

看一看這幅圖片。這是個字母,還是個數字?

很明顯,這幅圖片既可以是字母,也可以是數字,具體取決於它所在的上下文。

認知心理學家將知識分爲兩類:自下而上的信息,是直接來自我們感官的信息;還有自上而下的知識,是我們對世界的先驗知識,例如,字母和數字是兩個不同的類別,單詞和數字是由來自這些類別之中的元素所組成的,等等。這種模棱兩可的B/13圖像,在不同的上下文中會呈現出不同的面貌,因爲我們會嘗試着將落在視網膜上的光線與合乎邏輯的世界相結合。

找到一種方法將自下而上和自上而下兩者整合爲一體,是人工智能的當務之急,卻常常被人忽視。

人類對任何一個概念的認知,都取決於概念出現的上下文和其所屬的理論框架。識別出不同的應用場景,不僅可以顯著減少所需數據,還能夠讓AI變得更加可信任。如果AI可以區分畫中的一把刀和真實場景下的刀,就可以做出不同的反應。

同時,人類會對每個事物和人的個體分別進行持續的觀察和跟蹤,以此來將不同時間點的數據進行統一的分析。這也是AI需要向人類學習的方式。

第八,概念嵌於理論之中

嵌入在理論中的概念對有效學習至關重要。假設一位學齡前兒童第一次看到鬣蜥的照片。從此之後,孩子們就能認出其他照片上的、視頻中的和現實生活中的鬣蜥,而且準確率相當高,很容易就能將鬣蜥與袋鼠甚至其他蜥蜴區分開來。同樣,孩子能夠從關於動物的一般知識中推斷出,鬣蜥會喫東西,會呼吸,它們生下來很小,會長大,繁殖,然後死去,並意識到可能有一羣鬣蜥,它們看起來或多或少都有些相似,行爲方式也相似。

沒有哪個事實是一座孤島。通用人工智能若想獲得成功,就需要將獲取到的事實嵌入到更加豐富的、能幫助將這些事實組織起來的高層級理論之中。

第九,因果關係是理解世界的基礎

深度學習能否成功,在嘗試之前是無法確證的,AlphaGo的設計者在設計之初也不確定能否取得如今的成績,畢竟深度學習能夠找到的規律只是相關性,而非因果性。

圍棋的棋盤形式和遊戲規則構成了一個相對簡單的因果模型,只有勝負的結果和單一的時間顆粒度,影響勝負的因素只有自己如何下棋。因此,和贏棋相關的走法,就等同於導致AI更強的算法改進。

但現實中,尤其是在2B的應用場景下,AI需要在多維度和長時間尺度下,做出同時滿足多種評價標準的決策,此時相關性就不等同於因果性。

第十,我們針對逐個的人和事件進行跟進

你的另一半以前當過記者,喜歡喝白蘭地,不那麼喜歡威士忌。你的女兒以前特別害怕暴風雨,喜歡喫冰激凌,沒那麼喜歡喫曲奇餅。你車子的右後門被撞了個小坑,一年前你更換了車子的變速器。街角那家小商店,以前賣的東西質量特別好,後來轉手給新老闆之後,東西的質量就一天不如一天。我們對世界的體驗,是由許多持續存在、不斷變化的個體組成的,而我們的許多知識,也是圍繞着這些個體事物而建立起來的。不僅包括汽車、人物和商店,還包括特定的實體,及其特定的歷史和特徵。

奇怪的是,這並非深度學習與生俱來的觀點。深度學習以類別爲重點,而不以個體爲重點。通常情況下,深度學習善於歸納和概括:孩子都喜歡喫甜食,不那麼喜歡喫蔬菜,汽車有四個輪子。這些事實,是深度學習系統善於發現和總結的,而對關於你的女兒和你的車子的特定事實,則沒什麼感覺。

第十一,複雜的認知生物體並非白板一塊

人工智能要獲得真正的進步,首先要搞清楚應該內置何種知識和表徵,並以此爲起點來啓動其他的能力。

我們整個行業,都需要學習如何利用對實體對象的核心理解來進一步瞭解世界,在此基礎之上構建起系統,而不是單純憑藉像素和行爲之間的相關性來學習一切,以此爲系統的核心。我們所謂的“常識”,大部分是後天習得的,比如錢包是用來裝錢的、奶酪可以打成碎屑,但幾乎所有這些常識,都始於對時間、空間和因果關係的確定感知。所有這一切的基礎,可能就是表徵抽象、組合性,以及持續存在一段時間(可以是幾分鐘,也可以是數十年)的對象和人等個體實體的屬性的內在機制。如果機器想要學習尚無法掌握的東西,那麼從一開始就需要擁有這樣的基礎。

 數據派獨家福利   

數據派爲粉絲爭取了兩本免費贈書名額,本文下方留言點贊數前兩位的寶寶即可獲得贈書!(統計截止時間爲6月12日10:00)

編輯:於騰凱


招聘信息

崗位: 開發運維工程師


職能:研發團隊支持——配合多個研發組,搭建、維護、優化Jenkins、禪道、數據庫、大數據平臺等,開發、支持持續集成(CI-CD)腳本和流程、軟件發佈管理,提高各個研發組的開發效率。深入研究運維相關技術以及新型軟硬件技術,包括運維自動化技術,虛擬化技術,監控技術,網絡技術等。對外提供數爲軟件系統的雲服務和培訓服務設施等。


招聘要求:本科學歷、帶有大數據系統(Hadoop、Kafka、ES、MongoDB、Jenkins等)使用經歷


入職單位: 清華大學軟件學院 大數據系統軟件國家工程實驗室 (工作地點:雙清大廈)


簡歷投遞地址:[email protected]
招聘日期:即日起至2020年7月16日


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章