人工智能引發的倫理問題及其規制


2020年8月29日,埃隆·馬斯克(Elon Musk)在加州弗裏蒙特舉行了一場發佈會,正式向全世界展示了自己的腦機科學公司Neuralink對豬進行腦機接口技術的成果,該芯片可以實時監測到小豬的腦電信號,遺憾的是我們還無法知道小豬在想什麼,但這項技術所揭示的未來太令人期待了,這則報道迅速轟動世界也是人們內心偏好的真實反映,它重新激發了人們對於腦機接口技術(brain-computer interface,BCI)的熱情。

>>>>

所謂的腦機接口,通俗來說就是在人腦(或動物)與外部設備之間建立直接的聯繫,由此形成信號的接收與發送,並實現相應的功能。按照腦機接入的方式可以分爲兩類:侵入式腦機接口(馬斯克這次演示的就屬於此類)與非侵入式腦機接口。前者的優點在於獲得的腦電信號更好,便於分析與處理,而後者收集到的信號質量較差、容易受到噪聲干擾。因此,侵入式腦機接口是目前國際學術研究的前沿。腦機接口已經實實在在地出現在我們的面前,隨着植入頭腦的各類芯片與傳感器的日益微型化、功能集成化、加上近年來人類對大腦功能瞭解的深入、腦機融合的日趨完善、創口的微小化、以及電池功能的增強,腦機接口技術取得重大突破絕非幻想,而是一種可以預見得到的發展趨勢。

人們之所以對腦機接口技術的發展趨勢持樂觀態度,是因爲社會上對於腦機接口技術有着巨大的市場需求,它所擁有的潛在商業價值是推動該項技術發展的重要推手。僅就目前可以想象得到應用來看,腦機接口市場前景廣闊,下述三種情形是最有可能優先發展的領域,如果該項技術成熟,那麼日益困擾老年人的老年癡呆症現象將得到極大緩解;修復殘疾患者的大腦缺陷,從而實現部分身體功能的恢復,以及可以實現治療抑鬱等精神疾病;更有甚者可以實現神經增強功能,如大腦的計算速度與記憶能力都是遠超人類的,如果未來植入的芯片與大腦更好地兼容,那麼人類的計算速度與記憶能力都將得到根本性的改變,製造超人不再是夢想。上述三種情形在科學上幾乎都有成功案例。如對殘疾人來說,通過意念實現部分身體功能,這類實驗成功的很多,如已經被廣泛採用的腦深部電刺激技術,這就是大名鼎鼎的“腦起搏器”,其原理就是通過植入腦部的電極向大腦的特定部位發送電脈衝,這一技術主要用於治療帕金森病和強迫性精神障礙等疾病,已經被美國食品藥品監督管理局批准。

再比如,美國著名的視覺腦機接口專家都博勒(William Dobelle,1941-2004),他的皮層視覺腦機接口主要用於後天失明的病人。1978年,都博勒在一位男性盲人傑瑞(Jerry)的視覺皮層植入了68個電極的陣列,併成功製造了光幻視(Phosphene)。植入後患者能看到清晰度以及更新率較低的圖像。如果說都博勒的工作是40年前技術的體現,那麼現在這方面的研究也有了最新進展,失明患者看到的視野比以前要好許多,有理由預測,隨着一些關鍵難題的突破,視覺腦機接口將惠及更多的失明患者。

還有科學家把人造海馬體植入到因海馬體受損而喪失記憶形成功能的老鼠腦中,併成功讓老鼠恢復了部分記憶形成功能(伯傑等人)。基於上述案例,我們大體上可以清晰判斷出腦機接口技術正在向日常生活領域擴散,一旦有技術上的突破,這種趨勢將無可逆轉。

問題是腦機接口技術雖然具有如此廣闊的應用前景,但也不可避免地帶來某些人類從來沒有遭遇過的倫理困境。對此,瑞典數學家奧勒•哈格斯特姆曾指出,腦機接口技術帶來的兩種常見的倫理問題是:隱私和認知能力的“軍備競賽”。關於隱私問題,這已經成爲高科技時代具有普遍性的倫理困境,每一次技術升級,都會導致隱私狀態隨之發生改變,從人類歷史上看,從農業社會、工業社會到後工業社會,人類的隱私範圍是逐漸縮小的。總體而言,技術進步導致公共領域擴張,而私人領域日益被技術侵蝕,隱私也隨之日益變小,人變成了透明人,隱私的消失也就意味着個人自由的萎縮。對於腦機接口技術而言,這種情況尤爲緊迫。一旦通過大腦植入設備可以輕易獲取我們大腦內的電信號,其內容完全可以被破譯出來,這就導致有很多個人或機構想要獲取這些信息,從而利用這些信息實施對我們基於特殊目的的操控,如商家的促銷、管理者對於僱員的監視、或者國家對於全民的監視等。這種過程是漸進的,在溫水煮青蛙效應中,人類的隱私一點點失去,我們不知道這是否就是人類爲技術進步所必須付出的代價。上述擔憂絕非杞人憂天,據資料介紹,1999年斯坦利(Garrett Stanley,現在埃默裏大學Emory University任職)教授,在哈佛大學通過解碼貓的丘腦外側膝狀體內的神經元放電信息來重建視覺圖像。他們記錄了177個神經元的脈衝列,使用濾波的方法重建了向貓播放的八段視頻,從重建的結果中可以看到可辨認的物體和場景。同理,利用這套技術也可以重建人類的視覺內容。看到這類實驗,你還認爲腦機接口所引發的隱私問題還很遙遠嗎?更何況遙遠並不意味着不可能。

再來說說由腦機接口所帶來的認知能力的“軍備競賽”問題。由於電腦在精確計算、數據傳輸與記憶方面比人類的表現強很多,那麼,隨着技術的發展與完善,總會有一些人嘗試在大腦中植入一些芯片,使自己的能力與計算機的能力進行整合,這將造就認知超人,試問我們正常人再怎麼努力也無法達到電腦所具有的記憶能力,這種事情一旦開始就無法停下來,從而陷入“軍備競賽”的遊戲框架下,因爲沒有人敢於停下來,否則他將被淘汰。問題是這種神經增強完全打破了人類由自然選擇以來所形成的所有關於公平的規範?此時優秀將不再是對於人的能力的褒獎,而是對他植入大腦的設備的褒獎?那麼人類的價值又何在呢?也許影響更爲深遠的是,腦機接口技術的軍備競賽式濫用,還會造成整個社會分層的固化,畢竟任何新技術在早期都是昂貴的,其最初的使用者大多是有錢有勢者,這種現實決定了腦機接口技術會更深層次地造成社會的固化,從而使社會秩序遭到毀滅性的破壞。

以腦機接口技術爲標誌的人工智能發展引發出一系列我們目前尚無法完全預料到的後果,它事關人類的未來,因此,必須從倫理層面對於它的發展進行有目的的約束。2020年上半年,美國五角大樓正式公佈人工智能的五大倫理原則,即負責、公平、可追蹤、可靠和可控。這個說法作爲倫理原則沒有錯,但是如何在實踐中落實,仍存在很多不明確之處,爲此,我們需要構建一套全流程的倫理規範機制,把倫理責任分解,採取分佈式倫理,即人工智能從製造到應用每個環節都承擔相應的倫理責任,只有這樣,人工智能才能最大限度上既增進社會的福祉,又把其潛在的風險最小化。目前的調查與研究顯示,在新技術發展的進程中,每個人的責任都是有限的,但是其後果卻是嚴重的。由於人類對於微小的惡的不敏感性,導致最初對於風險呈現出整體的麻木狀態,到後來小風險的累積就成爲高科技面臨的嚴重倫理問題。這已成爲一種風險擴散的普遍模式,爲此,我們需要構建一個新的倫理責任體系。

由於人工智能本身的複雜性,以及未來發展的不確定性,導致人工智能責任的明確歸屬變得更爲困難和模糊,如何防範其可能帶來的風險也就變得越發困難,甚至會出現無法追責的倫理缺席現象。因此,傳統的針對單一主體的倫理規範原則開始失靈,爲此我們必須構建一種新的倫理約束機制,從而實現對人工智能從前端、中端到末端全覆蓋的有效倫理風險防範機制。爲此,我們借用英國倫理學家盧恰諾•弗洛裏迪提出的分佈式道德概念構建人工智能的倫理風險防範框架示意圖,根據這張框架圖我們可以把人工智能倫理風險防範分爲三部分:首先,是前端的AI設計者的倫理責任(責任1,簡稱R1),其次,是中端使用者的倫理責任(責任2 ,簡稱R2),第三,是末端受衆的責任(責任3,簡稱R3)。

我們不妨假設人工智能所引發的倫理風險總量用公式表示爲:ΣR=R1+R2+R3,其中,R1≥R2≥R3。這三段式倫理分佈的規約機制分別是:1、對於設計者而言,他有多種動機(從善、中性到惡的選擇),這一部分倫理風險要通過具有強制性的政策手段(嚴重違規就上升到法律規約)來遏制,所有負責任創新都是從動機上防範倫理風險的發生;2、對於使用者而言,他要爲自己的使用承擔相應的倫理責任;3、受衆作爲社會成員,有監督人工智能使用的間接責任(個體責任最小,但是由於公衆數量龐大,無數微小的努力匯聚起來就是強大的倫理風險防範力量),2與3的激活需要利用科學文化的規訓作用,在高科技時代沒有人是旁觀者,只有倫理責任的全覆蓋,高科技的倫理風險纔會被最大限度上遏制,具體內涵見下圖:

 

  


2020-11-26於南方陰雨中

說明:文中圖片來自網絡,沒有任何商業目的,僅供欣賞,特此致謝!

—THE END—

編輯 ∑Gemini

來源:李俠科學網博客

文章推薦

☞一分鐘看懂一維空間到十維空間

物理學中最難的方程之一,你知道多少?

數學和物理的搞笑差別,23333333

人人都能讀懂的編譯器原理

人工智能時代的到來,c++還有用武之地嗎?

☞從特斯拉到愛因斯坦,物理學家爲何鍾情於貓?有人稱喵星人就是妥妥的“物理學家”

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章