“黑”掉神經網絡:騰訊披露新型AI攻擊手法,主流機器學習框架受影響

8月19日,第19屆XCon安全焦點信息安全技術峯會於北京舉行,騰訊朱雀實驗室首度亮相。據介紹, 朱雀實驗室專注於實戰級綜合攻擊研究及AI安全技術研究,以攻促防 。

會上,騰訊朱雀實驗室高級安全研究員nEINEI分享了AI安全方向的最新研究成果:模擬實戰中的黑客攻擊路徑,擺脫傳統利用“樣本投毒”的AI攻擊方式,直接控制AI模型的神經元,爲模型“植入後門”,在幾乎無感的情況下,可實現完整的攻擊驗證。

據稱,這是國內首個利用AI模型文件直接產生後門效果的攻擊研究。該手法更貼近AI攻擊實戰場景,對於喚醒大衆對AI模型安全問題的重視、進行鍼對性防禦建設具有重要意義。

騰訊安全平臺部負責人楊勇表示,當前AI已融入各行各業,安全從業者面臨着更復雜、更多變的網絡環境,我們已經看到了網絡攻擊武器AI化的趨勢,除了框架這樣的AI基礎設施,數據、模型、算法,任何一個環節都是攻防的前線。作爲安全工作者,必須走在業務之前,做到技術的與時俱進。

AI應用駛入深水區,安全暗礁不容忽視

隨着人工智能成爲“新基建”七大版塊中的重要一項,AI產業應用進一步駛入深水區,並與諸多技術領域廣泛交叉。

然而,人工智能在帶來便利之餘,卻也暗含巨大的安全隱患:幾句含糊不清的噪音,智能音箱或許就能被惡意操控使得家門大開;一個交通指示牌上的小標記,就可能讓自動駕駛車輛出現嚴重事故。在工業、農業、醫療、交通等各行業與AI深度融合的今天,如果AI被“攻陷”,後果將不堪設想。

原文鏈接:【https://www.infoq.cn/article/9X9srGHSZpG9hC1MF06s】。未經作者許可,禁止轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章