對抗鋪天蓋地的假新聞,MIT開發AI檢測系統自動識別虛假消息

互聯網時代,假新聞鋪天蓋地,而且極具迷惑性,Facebook 一度深陷虛假新聞的泥淖,不但被控影響了美國總統大選結果,甚至引發了德國政府的鉅額罰款。我們不禁想到,能否利用人工智能強大的能力,來對抗假新聞呢?麻省理工學院計算機科學與人工智能實驗室就爲此做出了嘗試。

假新聞是一種威脅,假新聞的大致定義爲,通過傳統媒體或社交媒體故意散佈虛假信息的一種宣傳。皮尤研究中心(Pew Research Center)在 2016 年 12 月的一項調查顯示,有 23% 的美國成年人有意無意地與朋友和其他人分享過假新聞。研究顯示,假新聞已經開始削弱公衆對主要電視和報紙媒體的信任。Monmouth University 的一項調查顯示,77% 的受訪者稱,他們認爲媒體報道的全都是假新聞。在一個特別令人震驚的例子中,關於華盛頓特區一家披薩店的一則不真實的報道(但像病毒一樣廣爲傳播),導致在一項 1244 人蔘與的民意調查中,有 9% 的美國選民表示,他們認爲前國務卿 Hillary Clinton 與一個兒童色情團伙有牽連。

爲了引起人們對這一問題的關注,最近,麻省理工學院計算機科學與人工智能實驗室(Computer Science and Artificial Intelligence Laboratory,CSAIL)的研究人員調查了所謂的假新聞探測器被真實文章愚弄的方式。與這項工作同時進行的是,同一個團隊還使用了世界上最大的事實覈查數據集之一來開發能夠檢測虛假陳述的自動化系統。

它是建立在麻省理工學院計算機科學與人工智能實驗室去年進行的一項研究的基礎上,該研究開發了一種人工智能系統,可以判斷消息來源是準確的,還是帶有政治偏見的。

研究人員的兩篇預印論文中的第一篇《我們安全了嗎?假新聞檢測中分佈特徵的侷限性》(Are We Safe Yet? The Limitations of Distributional Features for Fake News Detection),描述了基於 OpenAI 的 GPT-2 的框架,這是一種人工智能模型,他們在將人工書寫的文本提供給假新聞探測器之前,先用人工智能模型“破壞”這個文本的含義。在一次實驗中,他們利用類似於可靠來源的自動完成工具來生成有關合法新聞的信息。生成器(Generator)提供了一個有關 NASA 如何收集日冕物質拋射數據的報道,並就這些數據如何幫助科學家研究地球磁場發表了翔實且正確的解釋。儘管如此,它還是被識別爲“假新聞”,這表明,如果假新聞探測器是機器生成的,它就無法區分真假文本。

該研究的貢獻者、麻省理工學院教授 Regina Barzilay 表示:“我們的這一發現對當前分類器的可信度提出了質疑,這些分類器被用來幫助檢測其他新聞來源中的錯誤信息方面。”

在第二篇論文《經過去偏的事實覈查模型的探討》(Towards Debiasing Fact Verification Models)中,該團隊獲取了事實提取和驗證(Fact Extraction and VERification,FEVER),這是一個虛假陳訴的存儲庫,與 Wikipedia 的文章中的證據進行交叉覈查,以開發出一種同類最佳的事實檢查算法。

問題在於,接受過 FEVER 訓練的系統往往側重於陳述的語言,而不考慮外部證據。(例如,像“Adam Lambert does not publicly hide his homosexuality”(亞當·蘭伯特並沒有公開隱藏自己的同性戀身份)這樣的陳述,即使是真正的事實,並且可以從語料庫中推斷出來,它也有可能被事實覈查人工智能判定爲假新聞。當目標語句包含的信息在今天是正確的,但在將來卻有可能被認爲是錯誤的信息,這種影響會加劇。

爲解決這一問題,合著者創建了一個數據集來消除 FEVER 的偏見,但此舉並沒有完全解決這一難題。模型在無偏評估集上表現不佳,研究人員將這一結果歸因於這些模型過度依賴於它們最初接觸到的偏見。最終的解決方案是設計一種全新的算法:當在經過去偏的數據集上進行訓練時,該算法在所有指標上的表現都優於之前的事實覈查AI。

該團隊希望將事實覈查和現有防禦相結合,使模型對抵禦攻擊的能力更加健壯。未來,他們希望能夠通過開發新的算法和構建涵蓋更多類型錯誤信息的數據集來進一步改進現有模型。

他們並不是唯一試圖與人工智能對抗假新聞轉播的人。總部位於印度德里的初創公司 MetaFact 利用自然語言處理算法來標記新聞報道和社交媒體帖子中的錯誤信息和偏見。AdVerif.ai 是一個軟件即服務的平臺,去年發佈了測試版,它用於分析錯誤信息、裸體、惡意軟件和其他有問題的內容,並交叉引用一個定期更新的數據庫,其中包含數以千計的虛假和合法的新聞條目。就 Facebook 而言,它已經嘗試部署人工智能工具來“識別賬戶和假新聞”。

無論最終的解決方案是人工智能、人類管理還是兩者兼而有之,都不可能很快就會實現。Gartner 預測,如果目前的趨勢持續下去的話,到 2022 年,發達國家的大多數人將會看到更多的虛假信息,而不是真實信息。

作者介紹

Kyle Wiggers 居住在美國紐約市,是 VentureBeat 的人工智能專欄作者。

原文鏈接:

https://venturebeat.com/2019/10/15/mit-csail-fights-fake-news-with-ai/

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章