可選擇:人權、信念、言論…人工智能道德的基礎是什麼?

全文共1997字,預計學習時長4分鐘

clipboard.png
clipboard.png
clipboard.png

圖片來源:pexels.com/@marcin-dampc-807808

在涉及人工智能的業務上,誰應成爲科技公司裏道德委員會的一員呢?

科技公司逐漸認識到AI改變了權力動力學。科技公司作爲AI和機器學習系統的供應者,應主動考量他們的發明將帶來的倫理影響。

這也解釋了他們爲何在未做出任何與以往科技相媲美的東西時,就公佈如《人工智能的原則》一類的前景文件。但是他們應選擇何種道德規範呢?倫理常識、原則以及判斷因時間、地點、文化而不同,而這些甚至可能在當地社區都無法調和。由於存在太多的分歧,人們在真正要警惕的AI應用上沒有劃明警戒線。

由於企業不同於個體或政府,他們要對股東負責,因此,越來越多的併發症出現了。履行他們的信託義務可能意味着優先考慮增長,強調利潤,並與國際客戶合作,他們的政治忠誠在民主—威權統一的連續統一體中不同。

可以理解的是,這就導致人們對企業道德的誠意產生懷疑。每當科技公司談及道德倫理,評論家們就開始擔憂,他們認爲這是公司爲避免強硬的政府管制並贏得商譽的手段。該手段只有空洞的口號,卻幾乎與遵守法紀不沾邊。因此當科技公司建立外部人工智能倫理委員會時,該委員會可能被視爲自私的、“道德洗白的”面子工程。

憤世嫉俗總是合乎情理的。畢竟這些公司一面兜售透明化,一面推崇“阻止透明化的貿易語言”。它們被指責向那些總不公開企業資金的倫理研究員提供支持。一個重大的案例顯示,這些公司對倫理委員會的成員祕而不宣。如果科技公司想創造有意義的倫理實踐,他們得請正確的人到倫理委員會並給他們賦權,這樣才能提出公開建議,使企業對透明規則負責。

圖片來源:pexels.com/@belart84

人權和人工智能倫理

通過決策設計、戰略實施以及意外後果,AI有可能影響整個人類生活。在軍事、執法、銀行業務、刑事司法、就業,甚至產品的交付情境中,算法系統能通過自動化歧視、恐嚇公共演說及會議、限制獲取信息的渠道方面威脅人權。

意識到這些問題後,AI治理的主要框架將人權作爲基礎來制定措施,其中包括歐盟委員會發布的可信賴的《AI倫理指導》、《AI經濟合作及發展原則組織》、《社會責任下的AI企業:一份以權力爲基礎的企業藍圖》、《數據及社會中的統治者AI:捍衛人權和尊嚴》,以及《AI時代中的人權准入》。

人權是不完美的理想,它屈從於互相沖突的解釋,也植根於有“過於宏大理想”的議程中。人權理論上應普及全球,但其實並非在各地受重視。然而,聯合國發佈的《世界人權宣言》卻是迄今爲止最好的聲明,它建立了全面的社會、法律平等,以及根本的個人自由。電子電氣的工程師機構正確地指出,即使在多元的倫理傳統中,人權也是可行的基準。

“無論倫理實踐是西方的(亞里士多德學派或康德學派),東方的(神道教或孔子學派),非洲的(班圖精神),或是來自一個完全不同的傳統,只要創造出自動化且智能的系統,使其能確切地尊重人權和使用者的效益價值,人類福祉的提升就會成爲重中之重,並作爲算法時代人類進步的度量。”

科技公司應歡迎這一標準,明確地致力於實現更包容、具有保護性的人權解釋,並將其作爲企業戰略在AI系統方面的基礎。這些公司應邀請那些認可普遍人權的人加入AI倫理委員會。

從倫理角度衡量AI的影響時多樣化很重要,這點尤其體現在最邊緣化人羣中。但委員會不應該包括那些參與邊緣化的代表。一旦選好了委員會的成員,科技公司必須要求這些專家在任期內嚴守人權承諾。如果正當程序顯示一位委員說了或做了與人權相悖的言論或事情,無論其職位高低或成就如何,他/她應被除去職務。道理就是這麼簡單。懲罰很重但合理,且抑制了“數字倫理消費”,即企業玩忽職守,通過吸引可塑的倫理基準爲現狀正名。

誰的人權?

聯合國《世界人權宣言》第4條款稱任何人都不得處爲奴隸。誠然,現在這一條款在倫理上毫無爭議。然而據國際勞工組織(ILO)估計,在2017年,有2500萬人是強制勞動和奴隸制的受害者,其中包括非法性買賣、童子軍以及家政、建築、農業勞動力。所以如果這樣理所應當的人權都是人們夢寐以求的,那些更復雜的議題,如第16條款中結婚的權利將面臨更大的挑戰。

LGBTQ(包括女同性戀者、男同性戀者、雙性戀者、跨性別者、疑性別者、雙性別者)是世界上最易受攻擊的羣體之一,他們在所有方面都遭到管制,包括有限的就業機會(第23條款)及社會機會(第22條款)、性取向轉化療法,甚至遭受折磨(第5條款)。那些將同性關係及性別錯位定爲犯罪的國家會發現,這羣人中患精神疾病率更高。另外同性婚姻也一直是各地頗有爭議的話題,它常與以宗教爲基礎、限制性人權概念聯繫在一起。

當谷歌任命美國傳統基金會主席凱·科爾·詹姆斯爲科技資訊委員會委員時,一些批評家,包括有些是來自谷歌的批評家提出反對,他們認爲谷歌在迎合共和黨人。谷歌的AI原則是這場辯論的焦點,因爲它保護企業的承諾,即避免創造或使用“目的與廣泛接受的國家法律及人權原則相悖的科技”。詹姆斯認爲跨性別個體不符合她對人類性別的想法,反對LGBTQ,且帶領傳統基金會長期支持“傳統”婚姻,她如何能讓谷歌對其既定的理想負責呢?

同樣地,谷歌邀請科爾到委員會這一舉動正是默認了其在LGBTQ上的觀點,這無意間傷害了邊緣化羣體。就算詹姆斯將她矛盾的觀點放置一邊,在委員會開會時仍堅守與自己理念有部分衝突的公司理念,邊緣化羣體受到的傷害也無法被抹去。

諮詢委員會的爭端表明,谷歌的AI原則太含糊,不能作爲一份清晰的政策聲明。除此以外,這份原則包含許多警告,使得公司在與政府或企業合作時漏洞百出,因而無法全面致力於人權事業。如果一家公司不承認、不接受基於人權的AI原則帶來的經濟影響,那麼它聲稱的價值觀是毫無意義的。評論家將公正地審判這家公司,它將道德觀的呼籲作爲公關形象來做生意已是常態。

但是谷歌仍值得讚賞。亞馬遜的股東最近舉行了強制投票,內容是關於公司不顧潛在的人權侵犯,將人臉識別技術賣給政府機構。儘管終止銷售的議案失敗了,但呼籲人權原則的股東應受到讚揚。假設亞馬遜已擁有完備的AI倫理委員會,且領導者能認真傾聽委員會的意見,那麼公司的戰略可能就會和谷歌的一樣:谷歌稱將人臉識別系統賣給政府還爲時過早。美國公民自由協會的尼科爾·奧澤讚賞了谷歌的道德標準。

圖片來源:pexels.com/@belle-co-99483

多樣化言論及人權

評論家將抗議,如果科技公司堅持對人權有更包容的解讀,那麼委員會代表多元觀點的能力會被削弱。從倫理上衡量AI的影響力時,尤其在最邊緣化及受傷害的人羣中,多樣化是關鍵。然而委員會不應包括那些支持邊緣化的人。

有些人不同意人類的內在價值和平等,簡單地挑出這些局外人不是極端的排外。

致力於人權事業的人們已經代表了全面的觀點和經驗。他們在如何確定優先事項、運用原則上有分歧。多樣化和人權是互補的,因爲人權羣體並非是統一、想法一致的。那些受影響的也並不僅是人們的成見,而是有血有肉的人,或生活本身。有些人不同意人類的內在價值和平等,簡單地選出這些局外人並非極端的排外。而要理解,偵查仇恨言論的需求等同於反對自由言論這一根本權利,這纔是極端的排外。

中和另一種反對意見,堅持倫理委員會的成員不斷支持這些權利,完全不會影響自由言論。企業言論畢竟不是政府言論,在政府管控之外有許多時候人們不能自由地發表意見,或至少是有懲罰性後果的。

企業的社會媒體政策通過禁止負面的品牌或員工滿意度表現,來控制員工的言論。運作正常的媒體將以倡導爲基礎的爭論(如這個產業導向性陳述)限制意見部分,並有相應準則以避免在某些問題上出現虛假平衡,如氣候變化或疫苗安全等問題。人們普遍認爲大學與政府一樣,有着相同的準則來保護言論。然而哪怕在大學,也不是所有言論都受到保護的。

事實上,選擇那些強烈推崇人權的個體有可能加強自由言論。原因是許多人權原則明確地包含了對自由表達的保護。相反,不推崇人權的人會招致攻擊。

當評論家抱怨人權是壓制保守觀念的藉口時,他們是虛僞的。涉及AI領域的科技公司只有拒絕偏狹、拒絕對公司奉承迎合,才能成爲有擔當的全球角色。具體來說如拒絕把“思想上的多元化”這一願景變爲武器,這實際上允許倫理委員會減少或重新定義人人應受保護的根本人權。

對人權的根本承諾應帶來更好的倫理決策,以完善以AI爲基礎的系統。首先,這份承諾警告了公司,如果公司無法強有力地證明它們的努力能與人權保護共存,它們就不應參與以下業務,如致命的自動化武器、政府評分系統以及政府的人臉識別系統。這份承諾尚未開始解決AI在不顯眼的灰色地帶中創造的一系列不可預見的後果。在更多人被影響之前,人們都應得到科技的保證,即它們會以保護根本權利和自由爲目的來開展AI服務。

clipboard.png

留言 點贊 關注

我們一起分享AI學習與發展的乾貨

歡迎關注全平臺AI垂類自媒體 “讀芯術”

![圖片上傳中...]

sxbb,加入讀者圈,一起討論最新鮮的人工智能科技哦~)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章