傅瑩:AI 治理,需要借鑑「核管控」教訓

智源導讀:技術是把雙刃劍,人工智能的出現,既給人類帶來了福祉,同時也帶來了各種隱患。如何處理好人工智能這把雙刃劍,考驗着人類的智慧,也將決定着未來 AI 發展的朝向。

清華大學人工智能國際治理研究院名譽院長傅瑩強調,在人工智能治理方面,人類必須汲取歷史教訓,避免像核武器、互聯網等,由於治理共識形成太晚,而導致人類曾面臨巨大威脅。

作者:廖璐 賈偉

在如今,儘管各個國家、各個城市都在制定各自的AI政策和法律,但 AI 並非一國一城之事,如同核武器、環境污染、互聯網等一樣,AI所帶來的社會影響具有全球性。在當下這個時刻,如何推動人工智能的國際協同治理,事關重大,且迫在眉睫。

12月18日,由清華大學人工智能國際治理研究院主辦的“清華大學人工智能合作與治理國際論壇”針對此問題,以“後疫情時代的人工智能國際合作與治理”爲主題進行了多方探討,參與者不乏來自聯合國、相關國際組織、各領域的領軍人物等,包括傅瑩、姚期智、張鈸、薛瀾等著名人物,分享了來自政、企、學等各領域對人工智能技術治理問題的深度觀點。

在一系列報告中,清華大學人工智能國際治理研究院院長薛瀾教授作的主題爲《AI Governance: Challenges and prospects》的報告,簡明地闡釋了“AI治理”的基本框架,並指出人工智能國際治理的重要性。

在人工智能的國際治理方面,現如今已經有諸多實踐,例如清華大學人工智能國際治理研究院名譽院長傅瑩如今正在推進關於“人工智能武器化”的全球治理,她強調智能武器的管控,“絕不是一場零和遊戲,人工智能最終應使得全人類受益。”

另一方面,中國科學院院士、清華大學人工智能研究院名譽院長張鈸從技術的角度,提出第三代人工智能,希望從理論上解決人工智能的可解釋和魯棒性的問題,在此基礎上發展安全、可靠、可信、可擴展的人工智能技術。

01

人工智能治理的基本框架

1、AI治理的定義及要素

想要制定規則,首先需要明確定義。AI 治理(AI Governance)到底指什麼?

薛瀾教授認爲所謂“AI治理”,即嘗試通過制定規範、法律和制度,來更好地確保人工智能的應用能夠促進社會發展和進步。當然,“AI治理”仍然是一個還處在不斷髮展演變過程中的研究課題,目前仍然有諸多不明/不成熟的地方。

例如,既然是“AI治理”,那麼“AI”到底是什麼?目前甚至連人工智能專家都沒有形成一個完全統一的定義,“AI”的邊界也並未截然清晰,這就導致無法嚴格判斷具體哪些屬於“AI治理”的對象,哪些又不是。此外,AI的“黑箱”特性到底有多“黑”,“基礎性”技術到底有多基礎,對社會的影響具體有哪些等等諸多問題,目前依然是待解問題。

薛瀾教授在報告中認爲, AI 治理包含五個核心要素,分別爲 “Value”、“Regime”、“Actor”、“Object”、“Effect”等,具體如下:

  • Value:我們發展人工智能技術,必須堅持哪些基本的價值觀?

  • Regime:通過什麼樣的制度體系來有效治理?

  • Actor:誰參與到政策的執行,是個人、企業還是國家?

  • Object:治理的對象是什麼?是企業行爲,還是使用者行爲?

  • Effect:最終產生的結果是什麼,以及如何評價這些結果?

具體到其中的一個要素——Actor。薛瀾教授指出可以將各種“Actor”劃歸爲四類,分別爲公共部門、私營部門、社會部門和國際組織,如下圖所示:

但由於存在所謂“Regime Complex”(機制複合體)的現象,不同治理機制之間存在並非上下級關係的重疊交叉。這種重疊交叉正是當前 AI 治理的一個突出特點,不同公司都在制定各自的原則和規範,每個國家也都在制定 AI的法律法規,國際組織也在同時發佈各種聲明,但這些卻構成了一個比較多元但混亂的局面。

此外在維度上,AI 治理可劃分爲技術、社會和產出等三個維度。所謂技術維度,指利用算法、數據、安全、標準等技術方法來規避 AI 可能帶來的社會安全隱患;而社會維度則主要依靠倫理、原則、規範、法律等來防範 AI 可能帶來的社會治理問題;另一方面,從產出維度考慮,則是如何去衡量AI可能產生的隱私性、安全性、勞動取代、財富差距、民主等問題治理的效果。

2、AI治理的挑戰

薛瀾教授在報告中強調,AI 治理面臨諸多挑戰,但最大的挑戰是,技術發展與社會系統演變節奏差之間的“Pacing Problem”:AI 技術近些年來發展太快,而另一方面社會規制體系的演化則是相對緩慢的。

這種Pacing Problem,在未來的一段時間裏,極有可能會變得越來越大。因此在今年6月中旬國家新一代人工智能治理專業委員會發布的《新一代人工智能治理原則——發展負責任的人工智能》中,特別有一條強調“敏捷治理”,即改變傳統治理模式,以新型治理模式來適應人工智能快速發展所帶來的治理挑戰。

AI治理的另一項挑戰是治理主體(例如政府)的內在矛盾。一方面這些治理主體需要 AI 的幫助來提高能力、促進效率、降低人工成本等;但另一方面,在使用AI的同時也將不得不承受 AI 所帶來的數據安全、隱私保護、社會歧視、決策錯誤等風險。

AI 治理的第三大挑戰在於,發展 AI的主體(例如企業)與治理AI的主體(例如政府)之間存在着博弈問題。針對這一問題,從政府的層面來看缺乏相應的政策工具來規制企業內部的行爲,因此這就要求企業自身有極強的自律能力。除此之外,企業還必須要處理好如何以更負責任的態度來開發和應用 AI。

3、爲什麼需要人工智能的國際治理?

在報告中,薛瀾教授提出一個重要問題:人工智能的國際治理,爲什麼這麼重要?

薛瀾教授提出四點理由:

  • 公共物品:人工智能可能是提升人類福祉的有力工具,但需要全球層面的協調纔有可能充分發揮其潛力;

  • 合作促進發展:人工智能的發展涉及許多跨境問題,如開源算法、數據流、網絡安全、科學合作、貿易和全球價值鏈等。

  • 人類共同關切:人工智能的不當應用有可能會對人類社會產生毀滅性的影響(如大規模自主殺傷武器),而且不太可能由一個國家來解決。這一領域的不透明和不當競爭可能導致新的軍備競賽。

  • 調解分歧:不同國家對人工智能開發和應用的管理差異很大,制度和行動者(Actor)的策略也各不相同。沒有經過深思熟慮的協同努力,很難在全球範圍達成共識。

全球 AI 治理是一個重要且具有挑戰性的問題,截止目前,儘管已經有一些工作,但還有待進一步促進。那麼,在後疫情時代,如何開展全球 AI 治理的下一步呢?

薛瀾教授給出五條建議,分別爲:

  • 建立合作治理 AI 問題的全球性平臺;

  • 從互聯網治理、核武器治理、空間法和氣候變化治理中學習經驗吸取教訓;

  • 加強AI研究的科學合作和交流,包括對與 AI 治理和社會影響有關問題的研究;

  • 考慮國家之間的社會、經濟、政治、文化差異,在保留差異的同時,尋求共同的價值觀(例如負責任的創新);

  • 制定共同的原則和規範,以指導Al的健康發展和部署。

02

推動建立人工智能國際治理體系

清華大學人工智能國際治理研究院名譽院長傅瑩在“人工智能國際治理的多維透視”環節發表主旨演講,闡釋了構建人工智能國際治理體系和機制的重要性和必要性。她呼籲在人工智能領域建設包容性強的國際治理委員會,研究、探討、吸納好的建議和意見,形成共同的國際規範。

她重點介紹了中美專家在“人工智能與國際安全治理”合作項目中取得的進展。她說,既然人工智能武器化不可避免,專家們研究的方向是尋找合適的治理路徑。人類必須汲取歷史教訓,例如對核武器的治理共識就形成得太晚,導致人類曾面臨巨大威脅,互聯網的治理共識也沒能在早期實現。由此可見,前瞻性治理共識不可或缺。大家希望這次對人工智能,尤其是智能武器的治理,人類能走在技術變革的前面,充分認識其風險,早些達成治理共識,引領全球人工智能的健康發展。

她談到,中國國內在對人工智能技術應用的治理和立法方面已經在採取實際行動,中國在人工智能治理問題上也向國際社會釋放了清晰的合作信號。當然,從更大的角度看,這是人類共同的難題,不是一個國家、兩個國家能解決的。中美兩國乃至國際機構和各國圍繞這個話題展開合作至關重要,希望也相信這不是一場零和遊戲,人工智能最終應使得全人類受益。

傅瑩論壇上還回答了澎湃新聞(www.thepaper.cn)記者的在線提問:“我們是否應該制定全球性的人工智能治理準則?制定這一準則最關鍵的因素是什麼?”

她表示,當今國際社會並沒有成立一個世界政府,要有一個大家一致遵守的、嚴格和嚴密的規則比較難,但是聯合國在一定程度上發揮着協調國際治理的作用。聯合國副祕書長(法布里齊奧·霍奇爾德)在講話中就談到在國際治理方面加強合作和構建機制的必要性。

傅瑩說,大家在討論人工智能的國際治理時,經常引用在覈武器治理方面享有國際威望和影響力的Pugwash機構(帕格沃什科學和世界事務會議)。“這個機構最初是由科學家組織起來,對後來核武器的治理給予了很多技術上的指導和政治上的影響。在生物科學等領域裏,一些科研人員組成的機構也有很強的影響力。”

“所以希望在人工智能領域,能夠出現被大家所接受的,由科研人員、政府和政策專業人士組成的機構,能把目前大家提出的關切和解決辦法綜合起來,形成對未來治理的指導性意見。”

“在政府的作用方面,進入21世紀,各國之間的全球性合作比過去強很多,G20開會時領導人們也多次提到這方面的問題。所以我對在國家層面形成更多的共識和有約束力的指導方向也寄予期待。”

中國科學院院士、北京智源人工智能研究院學術委員張鈸主要論述了人工智能治理與人工智能的發展如何結合這一議題。人工智能爲什麼要治理?主要原因在於人工智能技術容易被誤用和濫用,而且會產生很嚴重的後果。原因有三:

第一,所有技術都存在兩面性,人工智能也不例外,人工智能既可以用來造福人類,也可能會傷害人類。


第二,現在的人工智能技術非常脆弱,它很容易被攻擊、被欺騙。

第三,數據安全問題。人工智能依賴大量的數據,但數據也存在大量需要解決的問題,比如隱私問題、知識產權問題、偏見問題、污染問題、存在錯誤等等,這些同樣會造成很大的危險。

 

那我們應該怎麼來解決人工智能安全性的問題呢?張院士認爲必須從兩方面下手,一方面是治理,另一方面是發展。我們該如何發展它?大家現在提出來的第三代人工智能,是從理論上解決人工智能的可解釋和魯棒性的問題,在這個基礎上發展安全、可靠、可信、可擴展的人工智能技術,這是發展的一個方向。

 

張院士表示針對此,目前主要做了兩項工作,一是已經發布的一個計算平臺-OneFlow。現在市面上主流的框架平臺,就是TensorFlow和PyTorch,OneFlow的可解釋性比別的好,有很多優點,現在已經應用在交通、醫療、智能製造等很多領域。最近又發佈了兩個產品,一個叫RealSecure,主要做隱私保護,從計算層面保護數據,實現可追溯,並清除掉有偏見的數據。另外一個產品是RealSafe2.0,可以抵禦攻擊。

張院士認爲治理和發展應該相輔相成,共同前進。一方面根據現階段人工智能的發展狀況,應該提出一系列治理的政策、方針,但隨着技術的發展,治理方式應該與時俱進。只有將兩者結合起來,共同發展安全、可靠、可信、可拓展的第三代人工智能技術,人工智能的發展才能更加安全。


點擊左下角“閱讀原文”,瞭解更多!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章