如何系統地欺騙圖像識別神經網絡

本文最初發表於 Towards Data Science 博客,經原作者 Andre Ye 授權,InfoQ 中文站翻譯並分享

卷積神經網絡(Convolutional Nerual Network,CNN)構成了圖像識別的基礎,這無疑是深度學習最重要的應用之一。然而“不幸”的是,有關深度學習的許多研究都是在數據集的“完美世界”約束下進行的——追求幾個百分點的正確率。因此,儘管我們開發的架構在理論測試中效果非常好,但在現實世界中卻不一定如此了。

對人眼來說,對抗性樣本或輸入與普通圖像難以區分,但卻能完全騙過各種圖像識別架構。對抗性輸入的部署顯然會帶來許多令人不安的危險影響,特別是當人工智能被賦予更多自主決策的權力時,尤爲如此。

因此,理解和解決應用於深度學習的系統產生對抗性輸入——倫理黑客的方法是非常重要的。

由 Goodfellow 等人提出的一種簡單的方法,用於系統生成對抗性輸入,稱爲“快速梯度符號法”(fast gradient signed method)。

考慮如下:

  • 輸入向量 x(此爲輸入信息所在的位置,但可以將其視爲一維列表)。
  • 對抗性輸入 x-hat(與 x 相同的形狀,但值有所改變)。
  • 一個 perbutation 向量 η(“eta”,以產生對抗性輸入向量)。

原文鏈接:【https://www.infoq.cn/article/qUhqVdHxC0uxPFyDbt7h】。未經作者許可,禁止轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章