原创 告別AI模型黑盒:可解釋機器學習研究報告

摘要 隨着金融數據規模的日益增長與AI技術的發展,機器學習模型在金融銀行業被廣泛使用。高性能的機器學習模型雖然在預測能力上表現突出,但是因爲模型過於複雜的結構而引發的黑盒問題,卻不利於機器學習模型的大規模使用。無法解釋的黑盒模型在使用過程中

原创 黑盒模型事後歸因解析:SHAP方法

近年來人工智能的浪潮越來越洶涌,以神經網絡、集成模型爲代表的機器學習模型在數據挖掘領域中發揮着不可替代的作用。在追求模型高精度的道路上,工業界和學術界也十分關注模型的可解釋性,期待從複雜模型中得到更直觀的理解。可解釋機器學習作爲索信達金融

原创 黑盒模型事後歸因解析:四種常用基本方法

機器學習模型應用到銀行業等金融領域時,需要保證其安全可靠。目前學術界已研究出一些基本的模型事後解釋方法,旨在解決機器學習“黑箱”問題,加速AI技術在業界的深度融合與應用。索信達AI實驗室致力於可解釋機器學習模型的研究與推廣,在內在可解釋模

原创 黑盒模型事後歸因解析:LIME方法

機器學習模型可解釋性方面的研究,在近兩年的科研會議上成爲一個相當熱門的話題。隨着機器學習應用越來越廣泛,大家不再僅僅滿足於模型的效果,而是希望對模型效果背後的原因有更好的理解。構建能讓用戶理解的模型正變得越來越重要,在醫療、金融和司法等高