不透明的人工智能模型可能具有欺騙性

本文最初發表在 Towards Data Science 博客,經原作者 Prajakta Kharkar Nigam 授權,InfoQ 中文站翻譯並分享。

“人工智能確實不錯,除了’你可能根本無法完全信任它‘”,牛津大學人類未來研究所的高級研究員曾說。爲了能夠信任人工智能,人們需要依賴真正能信任的模型。如果人工智能模型的運作方式不透明,就很難信任任何模型或任何第三方來源。

就其本身而言,技術與能源一樣,都是純粹的潛力。我們如何部署技術,以及以何種意圖來部署技術,對其產生的影響起着至關重要的作用。人工智能亦不例外。

Netflix 最近的紀錄片《監視資本主義:智能陷阱》(The Social Dilemma)深入探討了那些從控制我們的注意力和改變我們的行爲中獲利的商業利益集團是如何利用技術,特別是人工智能來控制我們的。

雖然濫用的可能性並非人工智能的獨特特徵,但有一些獨特的原因使得人工智能模型構成了更嚴重的威脅。作爲該行業的專業人士及其“用戶”,我觀察到,爲人工智能賦能的模型的不透明性是我們正在承擔的關鍵風險。

不透明的人工智能模型

去年在多倫多大學的深度學習暑期班上,我瞭解到,大多數人工智能模型使用的是機器學習、深度學習或強化學習方法。機器學習方法是基於先進的統計建模,用於做出更好的預測。深度學習和強化學習使用的是神經網絡。神經網絡是模擬我們大腦決策結構的多層算法。儘管不如生物神經網絡複雜,但這些網絡提供了相當真實和詳細的過程模型。

原文鏈接:【https://www.infoq.cn/article/8UWYY3cXGmJSgTOkiqpS】。未經作者許可,禁止轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章