可解釋的人工智能:說得清,道得明,信得過

近年來,可解釋的人工智能(Explainable AI)逐漸成爲學界討論的熱門話題。話題的中心是可解釋性,這表明人們開始不滿足人工智能的應用,而開始追問人工智能爲什麼那麼成功,或者爲什麼在某些場景下做出錯誤決策。隨着人工智能的廣泛應用,理解人工智能的決策過程越發重要。

如果將人工智能應用到一些敏感領域,例如,輔助醫療、國家決策制定、金融投資、智能駕駛,只有理解人工智能的決策過程,人們纔會信任人工智能,否則人與人工智能將陷入猜忌和敵對關係。

從關注應用到關注應用背後的具體運作機制,這是一種從技術思維向科學思維的轉變。然而,我們回顧人類對世界的理解模式演變歷程,發現這是一種非常獨特的轉變過程。

從十六十七近代科學革命以來,理解總是先於應用。而在這之前,雖然技術比科學出現得更早,但是那時的技術複雜程度絕沒有超出人們所能理解的程度,即使是複雜的技術也是由多個功能清楚的簡單裝置組合的產物。所以在深度學習出現之前,人類還沒有遇到過有效但不知道爲什麼有效的技術。這就爲人工智能的進一步和深一步應用埋下了禍根。

爲什麼我們那麼在意人工智能的可解釋性呢?從實踐應用角度,這關乎我們瞭解這一技術的程度問題,而從人性角度,這關乎人與技術的信任問題。在技術倫理領域,有一個傳統的話題,那就是技術是善的還是惡。但是,對於人工智能,人們甚至沒有能力談論它的善惡,因爲人們壓根不瞭解人工智能具體的決策過程。如果我們面對的是一種全新的文明,不知道他們的行爲規範,更不知道他們的決策過程,那麼討論他們來到地球是與人類做朋友還是侵佔地球,這完全是一種奢望。現在的人工智能就是我們所面對的全新的文明。

而之所以我們關注可解釋性,則是來自人性對確定性的渴望。一直以來,人類都在尋找關於世界和自我的理解,也正是這種理解的衝動才成爲科學起源的基礎。神話、巫術、宗教、科學,它們本質上都是解釋系統。

爲什麼人類會有解釋衝動呢?有研究兒童認知的學者認爲人類就是一種解釋機器,或者人類天然具有解釋器官,因此從演化的角度可以說明解釋對人類的生存價值。當然最初的解釋模式不可能像現在一樣是一套語言表證系統,但是在前語言時期的解釋是一種操作主義和基於共變關係的因果理解,而解釋系統一開始就是原因。

因此,尋找解釋就是尋求原因。而知道原因能夠極大的提升人類祖先的生存優勢。一旦掌握原因(不管是真的還是虛假的原因),人類就可以提前模擬自己的操作所帶來的結果,也可以設想出現原因之後的世界狀態的變化,從而能夠更好地謀篇佈局,適應自然。

這種對因果關係的訴求在意識層面就表現爲對確定性的渴望。凡事問個“爲什麼”,問的是現象背後的實在世界的狀態。現如今,人們關注可解釋的人工智能實則還是對確定性的渴望。只有說得清、道得明的技術,人們才能信得過,因爲這滿足了人們對確定性的訴求。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章