警惕! AI 用於詐騙 ...

週末,和家人一起去武漢郊外的八分山遊玩。回程時,發現百度導航的聲音,竟然是兒子的聲音。原來兒子在我去拿車的時候,閒的無聊,玩起了百度導航,然後就定製了屬於自己的導航語音。不得不佩服小孩子的探索能力,一下子就找到了新的玩法。我問兒子是怎麼做的,兒子說就朗讀了幾段文字,然後上傳,過一段時間就可以下載導航語音包了。

顯然,這不是簡單的錄製語音,然後播放出來,而是利用了人工智能,從朗讀的語音中提取關鍵音調信息,然後用於合成語音。這樣合成出來的語音,完全不像以前的機器朗讀語音那麼生硬,就如同本人朗讀出來的。

這讓我回想起一部電影。在《碟中諜3》中, 靚湯飾演的 Hunt 特工利用變聲技術模仿了一名軍火販子,所用的裝備則是一條貼在喉部的貼片,上面佈滿了電路,實時進行語音變換。在這之前,Hunt 就逼迫了軍火販子朗讀了卡片上的一段文字。

沒想到,存在於電影中的高科技,這麼快就進入了我們的生活,現代科技真的是發展越來越迅速!

但轉念一想,又不寒而慄。如果這項技術被騙子掌握,我們能識破嗎?

前幾年,諸如盜取 QQ 號、打電話謊報車禍(病危等)等詐騙手段屢屢見諸報端,直到現在,銀行、寫字樓、小區滿是防止電信詐騙的提示,雖然有所減少,但仍未銷聲匿跡,不時爆出新聞,仍然有人上當。

如果騙子掌握了這種技術,一定會捲土重來。這已經不是想象,現實生活中已經發生!

據《每日郵報》報道,今年3月,一名詐騙犯利用 AI 語音模仿軟件冒充公司大老闆,成功讓一家英國能源公司的 CEO 相信自己正在與德國母公司的老闆通電話。

在電話中,詐騙犯要求這位 CEO 立即將 22 萬歐元轉到匈牙利一家供應商的銀行賬戶,以避免繳納“滯納金”,並將轉賬信息以郵件形式發送,而這位高管毫不猶豫地照做了。最終,這 22 萬歐元一去不復返……

這樣的案例也不僅僅發生在國外。下面發生在國內的故事可不是杜撰出來的。

劉倩突然收到一條來自多年不聯繫好友的微信消息,“最近在忙什麼?”“要不要見一面?”

從打招呼、互相寒暄到吐槽近況,整個聊天過程自然而然。她感嘆幾年過去了,好友仍是語氣可愛的“軟萌妹子”,甚至記得她們曾在北京隆冬的某一天晚上在街頭分食一份煎餅。

聊天就這樣切換到語音,好友開始找她借錢,數額不大, 2000 塊。她毫不猶豫地轉過去了。緊接着好友第二次、第三次向她借錢,她開始察覺事情有些不對。

事情確實不對,劉倩沒想到,那個聲音、語氣一如既往地熟悉,甚至能清晰記得他們多年前共同經歷的“好友”是個詐騙犯。

騙子在獲取了劉倩好友的聲音素材之後,用 AI 合成的“好友”聲音與之對話;熟悉的語氣和共同的回憶則“歸功於” AI 在網上搜集分析了劉倩微信、微博等個人信息。

如果說單憑語音不可信,那視頻總沒有問題吧?

也有問題。藉助於 AI 的快速發展,影像造假也越來越簡單,越來越難以識別。還記得之前鬧得沸沸揚揚的 Deepfake 視頻吧?藉助於 AI 換臉技術,將明星的臉換到色情視頻裏,已有多名明星中招。

騙子的嗅覺往往比普通人更加靈敏,立刻就有人應用到詐騙上。比如,不久前就有騙子用 AI 將自己合成假王源,在直播平臺上大肆行騙,引得粉絲紛紛來刷禮物。

真假王源

前兩個月,芒果臺播出了一部新電視劇《三千鴉殺》,由於劇中飾演一個角色的女演員被解約了,但是戲已經殺青,重拍代價太大,芒果臺選擇使用了 AI 換臉,結果引發網友的找 BUG 熱情。對於一部高清晰度的影片,眼尖的網友可能會找出換臉的跡象。如果在視頻通話中,清晰度沒那麼高,特別是沒有防備的情況下,我們還能識破嗎?

這只是 AI 詐騙的冰山一角。當人們還在感嘆區區毛騙,何足掛齒的時候,有騙子已經把 AI 這門新技術運用得爐火純青 — 算法篩選被騙羣體、分析你的個人特點和喜好,機器人定時撥打騷擾電話,再加上換臉、變聲等一系列操作,讓人想不相信騙子是你都難。

總的來說,目前運用 AI 技術進行詐騙的方式一共有四種:

  1. 轉發微信語音。騙子通過盜取微信號,然後提出轉賬要求,多數人會選擇要求對方語音回覆,這時騙子會轉發之前的語音,從而獲取信任,進而獲得錢款。雖然目前微信語音是不能轉發的,但騙子可以通過提取語音文件或者安裝增強版微信(一般是基於 xposed 框架的插件),實現轉發語音。

  2. 聲音合成。也是目前發生頻率最高的 AI 詐騙方式。騙子通過騷擾電話等方式,錄音提取某人的聲音,並對素材進行合成,用僞造的聲音實施詐騙。

  3. AI 換臉。視頻通話的可信度明顯高於語音和電話,利用AI換臉,騙子可以僞裝成任何人。

  4. 通過 AI 技術篩選受騙人羣,獲取受騙者的聊天習慣、生活特性等。通過分析公衆發佈在網上的各類信息,騙子會根據所要實施的騙術對人羣進行篩選,從而選出目標人羣。例如實施情感詐騙時,可以篩選出經常發佈感情信息的人羣;實施金融詐騙時,可以篩選出經常蒐集投資信息的人羣。

目前 AI 詐騙還沒有那麼普遍,一來是門檻比較高,二來目前的技術還不是那麼完美,比如 AI 換臉,偶爾會出現穿幫。但是回想起之前的電信詐騙,都是先在小範圍報道,然後擴散到全國。中國各地發展不平衡,一般等騙術傳到偏遠農村,纔算最終結束一輪,而這時騙子又開始新的一輪騙術。因此,在 AI 詐騙術還沒有大規模應用之前,請把相關的騙術傳播開來,讓大家擦亮雙眼,也讓騙子無處可遁。

面對一輪又一輪的新詐騙術,我們該如何防範呢?

第一是驗證。提高警惕是防範詐騙的最好方式,在涉及錢款時,我們要提高安全意識,通過電話、視頻等方式確認對方是否爲本人,在不能確定真實身份時,可將到賬時間設定爲“2小時到賬”或“24小時到賬”,以預留處理時間。此外,可以選擇向對方銀行匯款,避免通過微信等社交工具轉賬。因微信等工具均會綁定銀行卡,向對方銀行卡轉賬,一方面便於覈實對方信息,確認錢款去向;另一方面,對方能通過短信通知得知轉賬信息。

第二是保護個人信息,注重隱私保護。社交平臺的發展加大了保護個人信息的難度,我們將越多的個人信息暴露在網絡上,遭受詐騙的概率越高。實施詐騙需要獲取當事人的個人信息,網絡共享加上 AI 技術,騙子蒐集整理當事人的個人信息更爲便捷。因此,爲避免騙子借用個人信息實施詐騙,我們應當加強個人信息保護意識,以防止騙子利用 AI 技術掌握大量個人信息並對人物性格、需求傾向等進行刻畫,從而有針對性地實施詐騙。


我們不能因爲 AI 技術被犯罪份子利用,就禁止發展,技術的問題,也可以通過技術加以解決。目前,將 AI 技術用於提升反詐騙精準度,也取得了一定的效果。比如,利用以大數據分析和智能預警算法爲基礎的 AI 技術進行反網絡詐騙,在工信部等部門的主導下,利用大數據優勢,將相關數據通過反詐騙機制進行共享,進而提高反詐騙的精準度。

道高一尺,魔高一丈,還有一種說法是魔高一尺,道高一丈。相信詐騙與反詐騙之間的技術會一直對抗下去,就如同病毒與反病毒,促進技術的發展,最終會給人類帶來更多的福祉。

騙子都在積極擁抱人工智能,你呢?

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章