AI情報專刊來啦!《“AI換臉”威脅研究與安全策略》

頂象防禦雲業務安全情報中心最新發布的情報專刊《“AI換臉”威脅研究與安全策略》,對當前備受關注的“AI換臉”風險進行了深入研究。

 

 

《“AI換臉”威脅研究與安全策略》共分爲8章32節,系統介紹了“AI換臉”威脅的構成、“AI換臉”的危害、“AI換臉”欺詐的過程、典型的威脅模式、背後的產業鏈、目前主流的識別檢測策略、各國針對“AI換臉”的監管規定、“AI換臉”欺詐案件中各方需要承擔責任等點擊在線免費查看和下載

 

 

AI換臉,也稱爲“深度僞造”(Deepfake),是一種利用人工智能技術將人臉替換到另一個人的臉部上的技術。“深度僞造”技術涉及多種技術和算法,這些技術和算法相互配合,可以生成非常逼真的圖像或視頻。將“深度僞造”的虛假內容與真實信息的元素拼湊在一起,就可以用於可以僞造身份、傳播錯誤信息、製作虛假數字內容,進行各類欺詐。

 


“AI換臉”常見的詐騙套路

1、僞造賬號造謠傳謠

利用“深度僞造”技術,詐騙分子能夠創建和分發高度定製和令人信服的內容,這些內容可以根據個人的在線行爲、偏好和社交網絡來定位個人,並可以無縫地融入用戶的提要中,從而促進快速和廣泛的傳播。這使得網絡犯罪對用戶和平臺來說更加高效和具有挑戰性。

 

 

2、冒充熟人進行詐騙

2024年1月,香港跨國公司員工被騙2億港元,以及2023年11月內蒙古包頭市警方通報的詐騙案件均屬冒充熟人詐騙。

 

 

“深度僞造”技術讓詐騙分子能輕易模仿目標人的視頻、聲音等。這些虛假的視頻音頻不僅模仿聲音,還能模仿語調、口音和說話風格。爲了進一步增加詐騙的可信度,詐騙分子還會在社交媒體、公開渠道等上獲取的被模仿者的敏感信息(如工作風格、生活習慣、旅遊動態等),用於佐證自己的冒名頂替身份的真實性,使受害者難以分辨真僞。在取得受害人信賴後,進而對受害人進行財務資金、商業機密等詐騙。

3、僞造身份申請銀行貸款

對於金融機構來說,“深度僞造”欺詐更令人擔憂。詐騙分子利用“深度僞造”技術,僞造信息、聲音、視頻、圖片,然後將真實和虛假的身份信息結合起來,創建全新的虛假身份,用於開設銀行賬戶或進行欺詐性的購買。而且,詐騙分子可以使用“深度僞造”技術來學習不同的銀行業務和流程,然後迅速對不同銀行同時展開欺詐。

以後,銀行鍼對用戶的信貸申請,也許不僅要評估“他/她適合授信10萬?還是20萬?”,還需要辨別“這個貸款申請人是人類?還是人工智能?”,預計92% 銀行將遭遇“深度僞造”的欺詐威脅

4、“網絡釣魚”更加難以識別

隨着技術的發展,網絡釣魚者也在改變策略,尤其在AI的幫助下,詐騙分子使用“深度僞造”技術欺騙受害者,讓釣魚攻擊更加複雜,攻擊極難檢測。2023 年,深度僞造網絡釣魚欺詐事件激增了3,000%

5、冒充他人遠程面試入職

2022年7月,美國聯邦調查局(FBI)發出警告稱,越來越多的詐騙分子正在使用“深度僞造”技術在遠程職位面試中冒充求職者,騙取企業薪資、盜取企業的商業機密。

詐騙分子利用“深度僞造”製作出虛假的面試人,在攝像頭,人的動作和嘴脣動作與說話者的音頻基本一致。甚至,咳嗽、打噴嚏或其他聽覺動作等動作與視覺呈現的內容一致。

 

 

聯邦調查局在公告中沒有說明騙子的最終目標。但該機構指出,這些虛假的面試人,一旦面試成功且入職,將被允許成功訪問“客戶 PII(個人身份信息)、財務數據、公司 IT 數據庫和/或專有信息”等敏感數據。

聯邦調查局還稱,該騙局的一些受害者被盜的 個人信息已被用於進行遠程面試工作,並且還曾被用於與其他申請人的個人資料進行就業前背景調查。

6、冒名登錄盜走銀行餘額

2024年2月15日,國外安全公司Group-IB宣佈,發現一個名爲“GoldPickaxe”的惡意軟件。該惡意軟件的iOS版本,誘騙用戶進行人臉識別、提交身份證件,然後基於用戶的人臉信息進行深度僞造。

通過深度僞造的虛假的人臉視頻,欺詐分子就可以登錄用戶的銀行賬號,攔截銀行發送的手機驗證短信,就能夠進行轉賬、消費、修改賬號密碼等。

 


“AI換臉”的產業鏈

以頂象防禦雲業務安全情報中心攔截的某個“深度僞造”金融詐騙案件爲例,詐騙分子的詐騙過程主要有四個階段,“深度僞造”技術只是詐騙過程中的一個關鍵因素環節,其他環節中,受害人如果無法甄別和判斷,很容易在詐騙分子的指示下一步步墜入陷阱。

第一階段,騙取受害人信任。詐騙分子通過短信、社交工具、社交媒體、電話等方式,聯繫到受害者(例如,能夠直接講出受害人的姓名、家庭、電話、單位、住址、身份證號碼、同事或夥伴,甚至部分經歷),並獲取信任。

第二階段,盜錄受害人臉。詐騙分子通過社交工具、視頻會議、視頻電話等方式,與受害者進行視頻通話,在視頻通話過程中獲取受害人的人臉信息(人臉、低頭、扭頭、張嘴、眨眼等等關鍵信息)進行“深度僞造”虛假視頻和人像的製作。期間,還會誘導受害者設置電話呼叫轉移或誘導受害人下載惡意App軟件,可以呼叫轉移或攔截銀行的客服電話或電話。

第三階段,登錄受害人銀行賬戶。詐騙分子通過銀行App登錄受害人的銀行賬戶,提交“深度僞造”製作的虛假視頻和虛假人像後,通過銀行的人臉識別認證,並攔截受害人手機上,銀行發送的手機短信驗證碼和風險提示等。

第四階段,轉走受害人銀行餘額。將銀行打來人工訪問電話呼叫轉移至詐騙分子預先設置的虛擬號碼,冒充受害者,通過銀行客服人員的人工覈實,最後順利轉走受害人銀行卡內的餘額。

 


“AI換臉”使用到的技術

人臉識別和關鍵點檢測

人臉識別和關鍵點檢測用於識別和定位人臉,是“深度僞造”技術的基礎,主要用於識別圖像或視頻中的人臉,並定位人臉的關鍵點,例如眼睛、鼻子、嘴巴等。這些信息可以用於將人臉從圖像或視頻中提取出來,並將其與其他圖像或視頻進行合成。

其中,人臉識別算法包含基於特徵的人臉識別的Eigenfaces、Fisherfaces、Local Binary Patterns (LBP),基於子空間的人臉識別的Principal Component Analysis (PCA)、Linear Discriminant Analysis (LDA),以及基於深度學習的人臉識別的DeepFace、FaceNet、Dlib等;關鍵點檢測算法包含基於形狀的人臉關鍵點檢測的Active Shape Model (ASM)、Constrained Local Model (CLM), 基於外觀的人臉關鍵點檢測的Cascaded Shape Regression (CSR)、DeepPose等。

 

 

圖像/視頻合成技術

圖像/視頻合成技術將不同的人臉、表情、動作等合成到目標圖像或視頻中,是“深度僞造”技術的核心,主要用於將不同的人臉、表情、動作等合成到目標圖像或視頻中。

常用的圖像/視頻合成技術包括,含基於像素的圖像/視頻合成的Poisson Blending、Seamless Cloning,基於特徵的圖像/視頻合成的FaceSwap、DeepFaceLab。

生成對抗網絡(GAN)

生成對抗網絡 (GAN) 是一種深度學習技術,可以生成非常逼真的圖像或視頻。GAN由兩個神經網絡組成:生成器和判別器,其中生成器的目標是生成高度逼真的虛假圖像、視頻與聲音,是“深度僞造”技術的重要工具,其包含DCGAN、ProGAN、StyleGAN。

增強效果技術

可以“增強深度”僞造的效果技術,包含用於合成僞造的WaveNet、 Tacotron,用於創建逼真的3D模型Shape from Shading和ructure from Motion等。

“深度僞造”的危險不僅在於生成虛假視頻和圖片,還在於其所促成的整個詐騙生態系統:一個由機器人、虛假賬戶和匿名服務組成的錯綜複雜的網絡運作,所有這些都旨在製作、放大和分發捏造的信息和內容,具有識別難、檢測難和追溯難的問題

這是數字時代的一種威脅形式,在這個欺詐體系中,攻擊者看不見且難以捉摸,他們不僅製作信息,還操縱每個參與者感知的現實結構。所以,要打擊“深度僞造”欺詐,一方面需要識別檢測僞造的視頻、圖片和信息(有效甄別出虛假僞造的內容);另一方面需要對實行“深度僞造”欺詐的渠道和平臺網絡進行識別與檢測(多方面提升數字賬號的安全性)。這不僅需要技術對策,更需要複雜的心理戰和公衆安全意識的提升。


業務安全產品:免費試用

業務安全交流羣:加入暢聊

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章