10萬美元獎金!CVPR 2021 重磅賽事,安全AI挑戰者計劃




賽題背景


隨着人臉識別、動作識別、假貨識別等應用場景的出現,AI與安全結合的成果愈加豐碩,但AI面臨的安全問題也逐漸浮出水面。
爲了抵禦未來AI面臨的安全風險,阿里安全聯合清華大學,以 對抗樣本爲核心,提供場景、技術、數據、算力等支持,召集“挑戰者”以防守者的身份共同打磨AI模型安全;爲廣大安全愛好者提供數字基建安全的試煉場,在高難度的真實環境中提升技術,培養真正有安全實戰能力的安全基建人才。
大賽主頁:
https://s.alibaba.com/Challenge
另外大賽也在 CVPR 2021 舉辦  Workshop on Adversarial Machine Learning in Real-World Computer Vision Systems and Online Challenges (AML-CV)
Workshop主頁:
https://aisecure-workshop.github.io/amlcvpr2021/
(徵稿中。。。截稿時間2021年5月10日)


賽題介紹



賽道一:防禦模型的白盒對抗攻擊


如今,大多數機器學習模型都容易受到對抗樣本的攻擊,成爲近年來被廣泛研究的新興話題。目前很多對抗防禦方法被提出以減輕對抗樣本的威脅。但是,其中一些防禦可以被更強大或更具針對性的攻擊攻破,這使得很難判斷和評估當前防禦和未來防禦的有效性。如果不能對防禦模型進行全面而正確的魯棒性評估,那麼此領域的進展將受到限制。


爲了加快對當前防禦模型在圖像分類中的對抗性魯棒性進行可靠評估的研究,我們組織本次比賽,目的是爲了產生新穎的攻擊算法來更加有效,可靠地評估對抗魯棒性。我們鼓勵參與者開發強大的白盒攻擊算法,以發現各種模型的最壞情況下的魯棒性。


報名鏈接:


https://tianchi.aliyun.com/s/cb2b6280f50dd95a685e9bb4ce840f4a


技術解析:

CVPR 2021大賽, 安全AI 之防禦模型的「白盒對抗攻擊」解析


賽道二:ImageNet 無限制對抗攻擊


深度神經網絡已經在各種視覺識別問題上取得了最先進的性能。儘管取得了極大成功,深度模型的安全問題也在業內引起了不少擔憂,舉例來說,深度神經網絡很容易遭受輸入上微小和不可察覺的干擾導致的誤分類(這些輸入也被稱作對抗樣本)。

除了對抗樣本,在實際場景中,深度模型遇到的更多威脅來自於非限制擾動對抗樣本,即攻擊者在圖像上進行大範圍且可見的修改,使得模型誤識別的同時不影響人的正常觀察。

無限制對抗攻擊是近兩年來對抗領域的一個熱門方向,希望通過此次比賽不僅可以讓參賽選手瞭解和探索ImageNet上的無限制對抗攻擊場景,還可以進一步提煉並總結無限制攻擊的一些創新而有效的方案,在學術上推動對抗攻擊領域的發展。

報名鏈接:

https://tianchi.aliyun.com/s/cb2b6280f50dd95a685e9bb4ce840f4a

技術解析:
還在刷榜ImageNet?找出模型的脆弱之處更有價值!



賽事時間



初賽開始日期:2021 年 1 月 15 日
初賽截止日期:2021 年 3 月 24 日 (報名截止)
複賽開始日期:2021 年 3 月 24 日
複賽截止日期:2021 年 3 月 31 日




賽事獎金




總獎金 100,000美元, 每個賽道各50000美元!
第一名:20,000 美元
第二名:10,000 美元
第三名:5,000 美元
第四到第六名:3,000美元
第七到第十名:2,000美元

同時每個賽道各設最佳論文獎 15,00美元。




競賽羣



爲方便大家組隊、技術討論,比賽的最新信息也會第一時間同步到羣裏!


直接掃碼加入!



 

戳原文,來報名,贏大獎!

本文分享自微信公衆號 - AI算法與圖像處理(AI_study)。
如有侵權,請聯繫 [email protected] 刪除。
本文參與“OSC源創計劃”,歡迎正在閱讀的你也加入,一起分享。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章