智庫專家稱人工智能可提升網絡空間適應能力

【概要】哈佛大學貝爾弗科學與國際事務中心網絡安全項目主任Michael Sulmeyer等發表文章稱,人工智能可提升網絡空間適應能力。

Michael Sulmeyer等在文章中表示,最近該中心的一位成員在中國與一羣中美學者就未來戰爭進行了爲期一週的討論。所有人都在猜測人工智能所扮演的角色,但令人驚訝的是,許多中國學者幾乎把人工智能等同於殺人機器大軍。

可以理解的是,大衆的想象力和當前的人工智能研究傾向於關注人工智能更迷人的方面——科幻小說和終結者電影裏的內容。雖然致命的自主武器是近年來的熱門話題,但隨着人工智能變得越來越複雜,這只是戰爭的一個方面會發生變化。正如Michael Horowitz在《德克薩斯國家安全評論》(Texas National Security Review)中所寫的那樣,人工智能本身不會僅僅作爲一種武器出現;相反,它是一個能夠支持廣泛技術的推動者。我們一致認爲人工智能最重大的影響可能會在討論其潛力時被隱藏起來。因此,我們應開展更全面的對話,認識到人工智能在網絡空間的潛在影響,不是通過促進網絡攻擊,而是通過提高資產意識和最小化源代碼漏洞來大規模提高網絡安全。

1 人工智能網絡防禦的機會

關於網絡空間的戰鬥,最常見的說法之一就是進攻比防守有優勢:進攻只需要成功一次,而防守則需要時刻保持完美。儘管這種說法一直以來有點誇張,但我們相信人工智能有顯著改善網絡防禦的潛力,能幫助調整網絡空間的攻防平衡。

很多網絡防禦都是關於對自己資產的態勢感知。前白宮網絡安全協調員Rob Joyce在2016年USENIX大會上也說過同樣的話:“如果你真的想保護你的網絡,你就必須瞭解你的網絡,包括網絡中的所有設備和技術。”一個成功的網絡攻擊者通常“比設計和運行網絡的人更瞭解網絡”。通過數據、計算能力和算法的正確組合,人工智能可以幫助防禦者更好地掌控自己的數據和網絡,發現異常變化(無論是來自內部威脅還是來自外部黑客),並迅速解決配置錯誤和其他漏洞。這將減少敵人可利用的黑客入侵機會(被稱爲攻擊面)。通過這種方式,網絡防禦者可以將他們的資源集中在最複雜和致命的國家支持的網絡攻防中。

這不是科幻小說:美國國防部高級研究計劃局(DARPA)在2016年的“網絡大挑戰”(Cyber Grand Challenge)上試驗了這種自我修復型電腦。在挑戰中,團隊爲開發自動防禦系統展開競爭,這種系統要能夠檢測軟件缺陷,並設計和運行補丁以實時修復它們。通過人工智能的自動識別和修復,團隊不僅能夠自我修復他們的系統;而且與之前所需要的數天相比,他們在幾秒鐘內就完成了這項工作。

人工智能可以幫助緩解的另一個網絡防禦挑戰與代碼重用的流行有關。程序員並不總是從頭開始編寫自己的代碼,像GitHub這樣的網站存儲了模塊化插件,允許程序員利用其他人以前的工作成果。正如專注於保護開源代碼的初創公司SourceClear的首席執行官馬克•科佩希(Mark Curphey)所說,“每個人都使用開源……90%的代碼可能不是他們所創建的東西。”雖然這會帶來極大的效率,省去了白費力氣做重複工作的必要,但也有風險,因爲沒有人對應用程序和固件核心代碼的完整性負責。沒有一個程序員(或者他們工作的軟件公司)有動機將資源用於審計數百萬行代碼的艱苦工作中。

人工智能可以幫助公司和政府評估和識別代碼中的錯誤,以支持現有應用程序、固件和程序的防禦。這可以通過機器學習來實現,機器學習是人工智能的一種方法,它允許機器從訓練集中獲取數據,並在常規之外識別出細微的模式,比如惡意軟件。因此,假設有正確的訓練數據,參與者可以更容易地返回並清理之前發佈的版本,以減少妥協的風險。他們可以在新產品生產週期中列入人工智能審查。正確地進行代碼審查需要時間:在識別錯誤、確定糾正算法檢測到的錯誤的最佳方法方面,人類的作用仍然很重要。但如果成功的話,人工智能可能會大大降低未被發現的漏洞和衆所周知的漏洞的流行程度。

2 美國政府可以做什麼

美國的政策制定者,尤其是軍方的決策者,能做些什麼來獲取人工智能在網絡安全和未來戰爭中其他不致命方面的潛在優勢?答案是部署實施。美國國防部高級研究計劃局的競賽表明,美國軍方已經具備了創建個人資產的態勢感知和審覈代碼完整性的新能力,私營部門也具備必要的能力和專門知識。Cylance和Sift Science等公司聲稱利用人工智能——更具體地說,是機器學習——來檢測欺詐和漏洞,瓶頸在於在政府中取得和實施這些進展。

因此,軍方必須繼續資助並將商業研究、人才和公司整合到政府系統中。重要的是,美國國防部已經展示了自己的態勢感知能力;該組織以前被稱爲“國防創新單元實驗”(Defense Innovation Unit Experimental,簡稱DIUx),最初是一個臨時的政府機構,現在是一個常設部門。事實上,正是“國防創新單元實驗”授予ForAllSecure公司的故意傷害網絡推理系統(2016年網絡大挑戰的獲獎技術)一份防禦合同。儘管2017年的合同向正確的方向邁出了一步,但商業和政府的人工智能網絡安全之間仍存在差距。

鑑於網絡安全是人工智能的一個潛在應用,網絡防禦是更廣泛討論的一部分,討論內容是國防部應該如何以(包括但不限於)殺手機器人在內的方式看待人工智能。已經有報道稱,國防部正在制定一項人工智能戰略,這將是至關重要的一步,整個部門和龐大的預算齊頭並進、朝着幾個共同目標努力。國防部知道,這項戰略的一個關鍵部分是如何與在人工智能領域取得巨大進展的私營企業開展最好的合作。當谷歌的一些員工瞭解到公司與美國軍方在人工智能方面的合作時,該公司的反應應該是具有啓發性的:並非所有科技公司都會欣然接受與美國軍方合作的機會,即使利潤豐厚的政府合同也岌岌可危。當然,這其中有一部分與市場規模有關,因爲商用人工智能市場要大得多。政府必須認真對待這些擔心,以便將公共和私營部門的所有關鍵人工智能參與者召集到一起,制定和實施國家人工智能戰略。

與此同時,政府不能讓這些擔憂給人工智能研究(不僅僅是自主殺戮領域)的機會蒙上陰影。改進網絡安全的研究對美國國家安全的重要性可能不亞於任何殺手機器人的進步。

雖然針對人工智能的專門戰略將有助於國防部統一工作,但國防部還需要在現有能力中注入人工智能。儘管我們都在使用人工智能的簡寫,但它並不是指單一的技術或能力:不同程度的自主性很重要,機器學習和神經網絡之間也有重要的區別。國防部長辦公室、聯合參謀部、作戰司令部和各軍種需要系統地思考人工智能如何更好地幫助他們在各個領域實現目標,包括網絡安全。他們必須避免概念上的陷阱——僅僅聲稱人工智能很重要,一旦我們能用人工智能解決問題,我們就會過得更好。

美國國防部的人工智能戰略還應考慮如何與盟友以及合作伙伴合作,以改善人工智能的集體努力,進而改善集體防禦。如今,像Alphabet(谷歌的母公司)的子公司DeepMind這樣的公司正在取得革命性的進展。值得注意的是,DeepMind總部位於英國,它提出了這樣的問題——倫敦的做法將是什麼,各盟國如何最好地合作,以支持這類研究,同時限制濫用的可能性。這不僅是美國的問題,美國還可以在其盟友和合作伙伴中發揮帶頭作用,促進負責任的網絡安全研究和應用。

最後,軍方必須與國會合作,確保無論出現何種人工智能戰略,都能在長期內獲得有效資源。如果國防部在人工智能上的努力陷入傳統的採購機器中,而這種做法需要30年才能交付一架戰鬥機,那麼它已經輸掉了下一場戰爭。在保護網絡能力的投資免受官僚主義之害方面,國會表現出了領導力和創造力。它可以也應該通過爲人工智能投資創建一個新的主力項目——爲一個特定任務彙集資金來源——來爲人工智能做同樣的事情。通過這種方式,政府將提高整個部門人工智能預算的透明度。無論如何,國會的支持對於確保聰明的人工智能戰略能夠幫助美國在物理和網絡領域戰勝對手至關重要。

爲了讓美國政府從網絡應用的人工智能中獲益,國防部需要在更大範圍內對人工智能採取開明的做法。然而,華盛頓正在努力解決如何對人工智能進行優先排序、激勵和接納不同的研究成果。中國官員看到了這一點,並正在爲他們的2030年計劃制定一個更加深思熟慮(儘管可能不那麼靈活)的路線。無論如何,儘管美國、中國和其他國家都會自然而然地尋找人工智能的應用,以實現新的和改進的權力投射形式,但美國的政策制定者不應忽視人工智能如何增強美國的防禦能力,並最終提高網絡空間的適應能力。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章