直播預告 | 曠視研究院周鳴一:不需要真實數據的模型竊取方法

「PW Live」是 PaperWeekly 的學術直播間,旨在幫助更多的青年學者宣傳其最新科研成果。我們一直認爲,單向地輸出知識並不是一個最好的方式,而有效地反饋和交流可能會讓知識的傳播更加有意義,從而產生更大的價值。

本期 PW Live,我們邀請到曠視成都研究院實習生周鳴一,爲大家帶來不需要真實數據的模型竊取方法的主題分享。

對本期主題感興趣的小夥伴,5 月 26 日(週二)晚 7 點,我們準時相約 PaperWeekly B 站直播間。

分享提綱

當前研究表明機器學習模型容易受到對抗性樣本的攻擊。在黑盒攻擊模式下,當前的替身攻擊(substitute attacks)需要用預訓練的模型來生成對抗性樣本。

在本文中,我們提出了一種不需要數據的替身模型訓練方法(DaST),無需任何真實數據即可獲得對抗性黑盒攻擊的替身模型。爲此,DaST 利用專門設計的生成對抗網絡(GAN)來訓練替身模型。我們用 GAN 中生成器產生的樣本訓練分類器(即替身模型),樣本的標籤爲目標模型的輸出。

實驗表明,與由目標模型相同訓練數據集訓練的基線替身模型相比,DaST 生產的替身模型可以實現具有競爭力性能。此外,爲了評估所提出的方法在實際任務中的實用性,我們在 Microsoft Azure 平臺上攻擊了在線機器學習模型。

就我們目前瞭解所知,這是第一個不需要任何真實數據就能生成替身模型並用來產生對抗攻擊的工作。這項工作被 CVPR 2020 接收爲 Oral。

本次分享的具體內容有:

  • 對當前對抗樣本與替身模型訓練方法

  • 提出的不需要真實數據的替身模型訓練方法

  • 實驗結果

嘉賓介紹

 周鳴一 / 曠視成都研究院實習生 

周鳴一,曠視成都研究院實習生,電子科技大學信息與通信學院碩士生在讀。研究方向爲機器學習安全,主要包括對抗機器學習、模型竊取等。發表過多篇期刊和會議論文。

直播地址 & 交流羣

本次直播將在 PaperWeekly B 站直播間進行,掃描下方海報二維碼點擊閱讀原文即可免費觀看。線上分享結束後,嘉賓還將在直播交流羣內實時 QA,在 PaperWeekly 微信公衆號後臺回覆「PW Live」,即可獲取入羣通道

B 站直播間:

https://live.bilibili.com/14884511

合作伙伴

????

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關於PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公衆號後臺點擊「交流羣」,小助手將把你帶入 PaperWeekly 的交流羣裏。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章