XAI-可解釋的人工智能

       機器學習的巨大成功導致了大量的人工智能(AI)應用程序。 持續的進步有望產生能夠自我感知,學習,決定和行動的自主系統。 然而,這些系統的有效性受到機器當前無法向人類用戶解釋其決策和行動的限制(上圖)。 國防部(DoD)面臨着需要更智能,自主和共生系統的挑戰。 如果未來的戰士能夠理解,適當地信任並有效地管理新一代的人工智能機器合作伙伴,那麼可解釋的人工智能 - 特別是可解釋的機器學習 - 將是必不可少的。

      可解釋AI(XAI)計劃旨在創建一套機器學習技術:

  • 產生更多可解釋的模型,同時保持高水平的學習成績(預測準確性); 和
  • 使人類用戶能夠理解,適當地信任並有效地管理新一代人工智能合作伙伴。

       新的機器學習系統將能夠解釋它們的基本原理,表徵它們的優點和缺點,並傳達對它們將來如何表現的理解。 實現該目標的策略是開發新的或改進的機器學習技術,以產生更多可解釋的模型。 這些模型將結合最先進的人機界面技術,能夠將模型轉化爲最終用戶可理解和有用的解釋對話(下圖)。 我們的策略是採用各種技術,以生成一系列方法,爲未來的開發人員提供一系列涵蓋性能與可解釋性交易空間的設計方案。

       XAI是當前DARPA少數計劃之一,旨在實現“第三代AI系統”,其中機器瞭解其運行的環境和環境,並隨着時間的推移構建底層解釋模型,使其能夠表徵現實世界現象。

       XAI計劃通過解決兩個領域的挑戰問題,專注於多系統的開發:(1)機器學習問題,用於對異構多媒體數據中感興趣的事件進行分類; (2)機器學習問題,爲自治系統構建決策策略,以執行各種模擬任務。

      此外,研究人員正在研究解釋的心理學。

       XAI研究原型在整個項目過程中經過測試和持續評估。 在2018年5月,XAI研究人員展示了他們可解釋學習系統的初步實施,並展示了他們的第一階段評估的初步試點研究結果。 預計2018年11月將進行全階段1系統評估。

參考

https://www.darpa.mil/program/explainable-artificial-intelligence

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章