李宏毅機器學習課程筆記-11.1Explainable AI引言

Explainable AI是什麼

我們希望,機器不僅要知道“是什麼”還要知道“爲什麼”,或者說機器不僅要給出答案還要給出explanation

Explanation可以分爲兩類:

  1. Local Explanation

    假定在圖片分類任務中有一張圖片,要求機器說明爲什麼它認爲這張圖片是某個類別(比如“cat”)

  2. Global Explanation

    假定在圖片分類任務中,要求機器說明它認爲一個類別(比如“cat”)是什麼樣子,而非針對一張圖片進行解釋。

Explainable AI有什麼用

在使用機器挑選簡歷時,我們需要知道機器爲什麼選擇某份簡歷(性別?還是實力)。

在使用機器判定罪犯是否可以假釋時,我們需要知道機器爲什麼判定是或否(實證?還是膚色)。

在使用機器判定是否給某人貸款時,我們需要知道機器爲什麼判定是或否。

通過Explainable AI,我們可以知道模型學到了什麼從而進行模型診斷,對模型進行改進和調整。我們不僅只關注模型在數據集上的精確度,還需要進行模型診斷,因爲有可能精確度很高但實際上機器什麼都沒學到。

Explainable AI是否有必要

李宏毅老師認爲Explainable AI的目標並非完全理解模型是如何work的,而是爲了讓人感到comfortable。

因爲深度學習是一個黑盒所以有些人認爲深度學習不可信,這有些因噎廢食。人腦等很多事物對現在的人類來講都也還是黑盒,完全理解模型的work機理不是必要的,因爲某些東西是黑盒就不使用它也不行。

Explainable AI其實就是爲了使老闆、客戶、自己等感到comfortable,甚至對不同人也應該有不同的解釋。

Interpretable VS Powerful

決策樹既是interpretable又是powerful的,但當分支特別多的時候決策樹的表現也會很差,這時可以使用Random Forest或者XGBoost,但它們雖然powerful但不interpretable。


Github(github.com):@chouxianyu

Github Pages(github.io):@臭鹹魚

知乎(zhihu.com):@臭鹹魚

博客園(cnblogs.com):@臭鹹魚

B站(bilibili.com):@絕版臭鹹魚

微信公衆號:@臭鹹魚

轉載請註明出處,歡迎討論和交流!


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章