10万美元奖金!CVPR 2021 重磅赛事,安全AI挑战者计划




赛题背景


随着人脸识别、动作识别、假货识别等应用场景的出现,AI与安全结合的成果愈加丰硕,但AI面临的安全问题也逐渐浮出水面。
为了抵御未来AI面临的安全风险,阿里安全联合清华大学,以 对抗样本为核心,提供场景、技术、数据、算力等支持,召集“挑战者”以防守者的身份共同打磨AI模型安全;为广大安全爱好者提供数字基建安全的试炼场,在高难度的真实环境中提升技术,培养真正有安全实战能力的安全基建人才。
大赛主页:
https://s.alibaba.com/Challenge
另外大赛也在 CVPR 2021 举办  Workshop on Adversarial Machine Learning in Real-World Computer Vision Systems and Online Challenges (AML-CV)
Workshop主页:
https://aisecure-workshop.github.io/amlcvpr2021/
(征稿中。。。截稿时间2021年5月10日)


赛题介绍



赛道一:防御模型的白盒对抗攻击


如今,大多数机器学习模型都容易受到对抗样本的攻击,成为近年来被广泛研究的新兴话题。目前很多对抗防御方法被提出以减轻对抗样本的威胁。但是,其中一些防御可以被更强大或更具针对性的攻击攻破,这使得很难判断和评估当前防御和未来防御的有效性。如果不能对防御模型进行全面而正确的鲁棒性评估,那么此领域的进展将受到限制。


为了加快对当前防御模型在图像分类中的对抗性鲁棒性进行可靠评估的研究,我们组织本次比赛,目的是为了产生新颖的攻击算法来更加有效,可靠地评估对抗鲁棒性。我们鼓励参与者开发强大的白盒攻击算法,以发现各种模型的最坏情况下的鲁棒性。


报名链接:


https://tianchi.aliyun.com/s/cb2b6280f50dd95a685e9bb4ce840f4a


技术解析:

CVPR 2021大赛, 安全AI 之防御模型的「白盒对抗攻击」解析


赛道二:ImageNet 无限制对抗攻击


深度神经网络已经在各种视觉识别问题上取得了最先进的性能。尽管取得了极大成功,深度模型的安全问题也在业内引起了不少担忧,举例来说,深度神经网络很容易遭受输入上微小和不可察觉的干扰导致的误分类(这些输入也被称作对抗样本)。

除了对抗样本,在实际场景中,深度模型遇到的更多威胁来自于非限制扰动对抗样本,即攻击者在图像上进行大范围且可见的修改,使得模型误识别的同时不影响人的正常观察。

无限制对抗攻击是近两年来对抗领域的一个热门方向,希望通过此次比赛不仅可以让参赛选手了解和探索ImageNet上的无限制对抗攻击场景,还可以进一步提炼并总结无限制攻击的一些创新而有效的方案,在学术上推动对抗攻击领域的发展。

报名链接:

https://tianchi.aliyun.com/s/cb2b6280f50dd95a685e9bb4ce840f4a

技术解析:
还在刷榜ImageNet?找出模型的脆弱之处更有价值!



赛事时间



初赛开始日期:2021 年 1 月 15 日
初赛截止日期:2021 年 3 月 24 日 (报名截止)
复赛开始日期:2021 年 3 月 24 日
复赛截止日期:2021 年 3 月 31 日




赛事奖金




总奖金 100,000美元, 每个赛道各50000美元!
第一名:20,000 美元
第二名:10,000 美元
第三名:5,000 美元
第四到第六名:3,000美元
第七到第十名:2,000美元

同时每个赛道各设最佳论文奖 15,00美元。




竞赛群



为方便大家组队、技术讨论,比赛的最新信息也会第一时间同步到群里!


直接扫码加入!



 

戳原文,来报名,赢大奖!

本文分享自微信公众号 - AI算法与图像处理(AI_study)。
如有侵权,请联系 [email protected] 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章