AI 落地場景不斷增多,聊聊AI 產品的可解釋性

近幾年AI場景越來越多的落地,但受限於AI技術發展程度和社會倫理問題,AI並沒有幹掉所有場景的工作崗位,而是進入一種人機協同的狀態。在人機協同的大時代背景下,AI的可解釋性問題變得越來越尖銳。本篇聊聊關於AI產品可解釋性的問題。

可解釋需求

雖然AI行業燒錢的問題被詬病很多,但相比5年前,如今AI確實越來越多的在社會各個層面落地。

之前文章《人工智能大會後,談談對智能汽車的認知》談到過未來會進入自動駕駛時代,無論是L4以下還是L4以上的自動駕駛,都需要自動駕駛系統替代人類做部分或全部的駕駛決策。而自動駕駛能夠被大衆和社會接受,前提需要在出現問題或人類想了解決策邏輯時,自動駕駛系統能給出合理解釋,而非完全把命運交給不可解釋的黑盒算法。

其他場景也存在類似問題。例如前幾年做智能推薦產品,主要聚焦給B端客戶提供推薦系統服務,交付以CTR或CVR指標提升爲準。而在實際交付中,指標雖然提升了,但客戶側會反饋到單個客戶上推薦結果不合理。

在當時的話語體系下,更多是給客戶講看總指標,追求全局最優解,而非每個客戶最優解。顯然站在C端用戶的視角,這種解釋是不夠的。而且在推薦系統實現過程中,確實會存在一些策略不那麼個性化,或者存在少數服從多數的建模邏輯,行爲少的用戶推薦結果會被行爲多的用戶影響。

客戶或用戶需要知道算法到底如何做出決策,無論是向上彙報還是對終端用戶解釋,都不算過分的要求。並且隨着AI落地場景越來越多,可解釋性問題會越來越尖銳。

可解釋性難點

AI可解釋性需求現實存在,在解決AI可解釋性的方案裏卻存在一定的難點。

近年來深度學習被廣泛應用,算法工程師可以無腦使用深度學習追求一個好的指標,但卻使結果變得不可解釋。爲什麼效果好,沒有人知道。

另外的是有些可解釋的模型,即便將決策原因暴露給客戶或用戶,用戶也不一定買帳,因爲現在AI終究還是逃不過統計學邏輯,即按照過去數據對未來做預測,預測的準確性是有概率的,並非能百分百準確。這種情況下,可解釋性只是直接的目標,準纔是根本的目標。

解決方案

解決可解釋性問題,可能有三個解決問題的方向。

方向之一是,回到最初的問題,場景是否真的適合採用AI,是否可以直接上規則。在之前工作中,遇到一些銀行和券商客戶,數據量有限,同時關注可解釋性,也想做推薦,但不適合傳統的AI推薦。於是構建了一款規則引擎產品,可手動給不同人羣配置不同推薦規則,於是兩全其美優雅的解決了問題。

方向之二是,將需要解釋的內容,適當做產品化。例如之前做新聞客戶端時,將召回策略中基於內容標籤、作者等召回源,作爲推薦緣由直接展示在用戶端,用戶可以選擇對某標籤的不感興趣。同時解決推薦原因和提升推薦效果的問題。

方向之三是,對於那些不可解釋的模型,需要推進技術上尋求挖掘可解釋性的方案,黑盒模型可解釋性目前也是業界比較前沿的領域,如果能有一些突破,再去做產品化便能將AI落地速度推進一大步。

關於作者:

小樂帝,一線AI產品經理、簡書科技優秀作者、產品經理讀書會創始人。

「產品經理讀書會」

專注於愛讀書愛思考的產品人提供讀書推薦、產品思考、以書會友的環境

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章