可解釋的人工智能:四個關鍵行業

  可解釋的人工智能可以讓人們理解人工智能系統是如何做出決定的,而這將成爲醫療、製造、保險、汽車領域的關鍵。那麼這對於組織意味着什麼?

  例如,流媒體音樂服務平臺Spotify計劃向用戶推薦歌手Justin Bieber的歌曲,卻推薦了Belieber的歌,顯然這有些令人感到困擾。這並不一定意味着Spotify網站的程序員必須確保他們的算法透明且易於理解,但人們可能會發現這有些偏離目標,但其後果顯然是微不足道的。

  這是可解釋人工智能的一個試金石——即機器學習算法和其他人工智能系統,它們可以產生人類可以容易理解並追溯到起源的結果。基於人工智能的結果越重要,對可解釋人工智能的需求就越大。相反,相對低風險的人工智能系統可能只適合黑盒模型,人們很難理解其結果。

  Jane.ai公司人工智能研發主管Dave Costenaro說:“如果人工智能算法的效果不夠好,比如音樂服務公司推薦的歌曲一樣,那麼社會可能不需要監管機構對這些建議進行監管。”

  人們可以忍受應用程序對其音樂品味的誤解。但可能無法忍受人工智能系統帶來的更重要的決定,也許是在建議的醫療或拒絕申請抵押貸款的情況下。

  這些都是高風險的情況,尤其是在出現負面結果的情況下,人們可能需要明確地解釋是如何得出特定結果的。在許多情況下,審計師、律師、政府機構和其他潛在當事人也會這樣做。

  Costenaro表示,由於特定決策或結果的責任從人類轉移到機器,因此對可解釋性的需求也會增加。

  Costenaro說,“如果算法已經讓人類處於這個循環中,人類決策者可以繼續承擔解釋結果的責任。”

  他舉例說明了一個爲放射科醫生預先標記X射線圖像的計算機視覺系統。他說,“這可以幫助放射科醫生更準確、更有效地工作,但最終將提供診斷和解釋。”

  IT的人工智能責任:解釋原因

  然而,隨着人工智能的成熟,人們可能會看到越來越多的新應用程序逐漸依賴於人類的決策和責任。音樂推薦引擎可能沒有特別重大的責任負擔,但許多其他真實或潛在的用例將會面臨重大的責任。

  Costenaro說,“對於一類新的人工智能決策來說,這些決策具有很高的影響力,而且由於所需處理的速度或數量,人類不再能夠有效地參與其中,從業者們正在努力尋找解釋算法的方法。”

  IT領導者需要採取措施確保其組織的人工智能用例在必要時正確地包含可解釋性。 TigerGraph公司營銷副總裁Gaurav Deshpande表示,許多企業首席信息官已經關注這個問題,即使他們瞭解到特定人工智能技術或用例的價值,他們通常還有一些猶豫。

  Deshpande說,“但是如果不能解釋是如何得出答案的,就不能使用它。這是因爲‘黑盒’人工智能系統存在偏見的風險,這可能導致訴訟、對企業品牌以及資產負債表的重大責任和風險。”

  這是思考企業如何以及爲何採用可解釋的人工智能系統而不是操作黑盒模型的另一種方式。他們的業務可能依賴於它。人們對人工智能偏見的主張可能會被誤導。在風險較高的情況下,類似的要求可能相當嚴重。而這就是可解釋的人工智能可能成爲機器學習、深度學習和其他學科的商業應用的焦點的原因。

  可解釋的人工智能在四個行業中的作用  大連婦科醫院 mobile.bhyy0411.com

  Ness數字工程公司首席技術官Moshe Kranc對可解釋人工智能的潛在用例進行了探討,他說,“任何影響人們生活的用例都可能受到偏見的影響。”其答案既簡單又深遠。

  他分享了一些越來越多地可能由人工智能做出決定的例子,但這從根本上需要信任、可審計性和其他可解釋人工智能的特徵:

  ·參加培訓計劃

  ·決定是否爲某人投保以及投保多少費用

  ·根據人口統計數據決定是否向某人發放信用卡或貸款

  考慮到這一點,各種人工智能專家和IT領導者爲此確定可解釋人工智能必不可少的行業和用例。銀行業是一個很好的例子,可以這麼說,可解釋的人工智能非常適合機器在貸款決策和其他金融服務中發揮關鍵作用。在許多情況下,這些用途可以擴展到其他行業,其細節可能會有所不同,但原則保持不變,因此這些示例可能有助於思考組織中可解釋的人工智能用例。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章