谷歌發佈TensorFlow,用於測試人工智能模型的隱私保護

本文作者:郭仁賢 2020-06-25 17:36

導語:人工智能模型會泄露訓練數據集的敏感信息,從而產生隱私風險。

近日,谷歌發佈了隱私保護TensorFlow工具包,可以評估各種機器學習分類器的隱私屬性。谷歌表示,它旨在成爲一個隱私測試套件的基礎,不管AI開發者的技能水平高低都可以使用它。

谷歌發佈TensorFlow,用於測試人工智能模型的隱私保護

當前,各種人工智能隱私技術仍然是社區內爭論的話題,但還沒有一個規範的指南來建立一個私有模型。而越來越多的研究表明人工智能模型可以泄露訓練數據集的敏感信息,從而產生隱私風險。TensorFlow隱私保護所採用的緩解方法是差分隱私,它在訓練數據中添加噪聲以隱藏單個示例。據瞭解,這種噪聲是以學術上最壞的情況去設計的,同時會顯著影響模型的準確性。

因此,這促使谷歌的研究人員在尋求另一種選擇。新的TensorFlow隱私模塊支持的成員推斷攻擊方法,建立分類器來推斷訓練數據集中是否存在特定樣本。分類器越精確,記憶就越多,因此模型的隱私保護就越少,做出高精度預測的攻擊者將成功找出訓練集中使用了哪些數據。

新模塊提供的測試是黑盒,這意味着它們只使用模型的輸出,而不是內部或輸入樣本。它們產生一個漏洞得分,確定模型是否從訓練集中泄漏信息,並且它們不需要任何再訓練,使得它們相對容易執行。

“在內部使用成員關係推斷測試之後,我們將與開發人員共享這些測試,以幫助他們構建更多的私有模型,探索更好的架構選擇,使用正則化技術,如提前停止、退出、權重衰減和輸入增強,或收集更多數據。”谷歌Brain的雙歌和谷歌軟件工程師David Marn在TensorFlow博客上對外表示。

另外,谷歌表示:“今後,它將探索將成員推斷攻擊擴展到分類器之外的可行性,並開發新的測試。它還計劃通過將新的測試與用於部署生產機器學習管道的端到端平臺TensorFlow Extended(TFX)集成,探索將新的測試添加到TensorFlow生態系統中。”

雷鋒網瞭解到,谷歌在去年夏天開放的基礎差異隱私庫中增加了對Go和Java的支持,還提供了Beam上的隱私,基於Apache Beam(一個特定於語言的sdk模型和集合)構建的端到端差異隱私解決方案,它依賴於差異隱私庫的低級構建塊,並將它們組合成一個“開箱即用”的解決方案,該解決方案考慮了差異隱私所必需的步驟。

此外,谷歌還推出了一個新的隱私損失分配工具,用於跟蹤隱私預算,允許開發者對收集差異私人查詢的用戶隱私總成本進行估計,並更好地評估其管道的總體影響。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章