當面孔成爲大數據養料,你的臉還好嗎?

“刷臉”進門,“靠臉”吃飯......在人臉識別技術日漸成熟的今天,這些曾經的想象已經無限接近於現實。根據前瞻行業研究院的預測,未來五年中國人臉識別整體市場將快速成長,實現多行業應用,預計到2021年中國人臉識別市場規模將突破50億元。

但是,在人臉識別一路狂奔的同時,技術開發所涉及的隱私問題日漸暴露,應用中的弊病也逐漸凸顯。

試想,在簡單“刷臉”就能完成一切的同時,你的五官數據將永遠成爲網絡數據集的一部分,甚至有可能被不同的機構調用。人臉識別所帶來的並不只是便利、高效和未來感,在現階段,它應該更多地與倫理、審查、規範化相聯繫。全媒派帶來獨家編譯,讓我們放下對這項技術的想象與憧憬,從最現實的角度對其進行探討和反思。

當研究數據被永久存儲,如何劃定隱私邊界

當你走進一家坐着20個人的咖啡店,至少會有22個攝像頭在你身邊:每個人的手機裏有一個,另一個通常高高懸掛在角落。你說的內容可能被偷聽或被髮布出去,你甚至可能出現在另一位顧客的自拍或視頻會話背景中。但即使最注重隱私的人也不會因此而拒絕進入咖啡店,因爲人們都能接受進入公共場所固有的風險。

正是這種對隱私的“合理”期望,使那些需要在公共場合採集人臉識別研究對象的研究者心安理得。但是,當公共場合採集的信息成爲了永久且開放的數據集,如何劃定“合理”的隱私邊界,就成爲了一片學術倫理尚未完善的灰色地帶。

成爲數據集的研究對象

杜克大學、斯坦福大學和科羅拉多州立大學多泉分校的學者們,都利用了校園監控作爲捕捉研究對象的手段,但這一行爲引起了強烈的反對。雖然人們對在咖啡店裏被人偷聽有心理準備,但卻沒有想過會突然變成研究對象,更何況,被錄入的研究對象將永遠成爲數據集的一部分。

倫理委員會(IRB)批准了這三個使用學生數據來改進機器學習算法的研究項目。杜克大學研究員Carlo Tomasi在《杜克大學紀事報》(Duke Chronicle)的一份聲明中表示,他“真誠地認爲”自己遵循了委員會的指導方針。

爲了開展研究,他和他的同事在公共區域的所有入口處張貼海報,告訴人們他們正在被記錄,如果他們想要刪除自己的數據,可以留下聯繫信息。Tomasi也告訴《紀事報》,沒有人主動來聯繫研究團隊刪除數據。

但Tomasi承認,他沒有通知IRB自己研究範圍的變化。一般來說,微小的變化是可以不用上報的,但是Tomasi獲得的批准是在室內錄製,並且只有提交請求才能訪問數據庫。但現實中,他在室外錄製,並且將數據庫向所有人開放。他向《紀事報》表示,“IRB不應該受到指責,因爲我沒有在關鍵時刻諮詢他們。我對我的錯誤承擔全部責任,我向所有被記錄的人和此舉對杜克大學造成的影響道歉”。

有限的監管和失控的後果

在科羅拉多州立大學多泉分校,首席研究員表示雖然他們通過學生數據來測試技術,但是團隊從未收集過具體到個人的識別信息。在獨立聲明中,大學們都重申IRB批准了所有研究,並強調了其對學生隱私的承諾。

但問題在於,大學倫理委員會的監管範圍是有限的。他們主要關注研究是如何進行的,但對研究將會如何結束,後續會產生什麼影響卻並不關心。

正如蓋辛格的IRB領導委員會主席、生物倫理學家Michelle Meyer所解釋的那樣,IRB主要關注的隱私問題是在公共場所開展觀察研究時,研究對象是否被單獨識別,以及對他們的識別是否會使他們面臨實質利益或生理上的傷害。“從理論上講,如果你正在製造一枚核彈,其中涉及調查或採訪人類受試者,那麼IRB考慮的風險將是直接參與該項目的人員面臨的風險,而不是核爆炸的潛在風險。”

值得注意的是,在信息時代,大多數學術研究都依靠互聯網,而互聯網上的信息將永遠存在。爲其他研究人員開放數據集會增加伴生風險,但IRB在這一方面並沒有多少管轄權。因爲從根本上說,數據共享與研究本身並不是一回事,因此它處在“一個奇怪的灰色監管地帶”,Meyer解釋說。

如果IRB對研究可能導致的後果漠不關心,那麼其他不受IRB標準約束的研究人員,就可以下載數據集並按照他們的意願隨意使用。而被研究的對象卻對自己正在被研究這件事全然不知,這可能會導致各種消極的後果。

這些後果或許遠遠超出研究人員的想象。德國反監視專家Adam Harvey在全球範圍內發現了100多個引用杜克數據集的機器學習項目。他創建了一張地圖,用於追蹤這一數據集在全球的傳播情況,就像飛機的航線圖一樣,從杜克大學向各個方向延伸出長長的藍線,指向世界各地的大學、初創企業和研究機構,包括中國的商湯科技(SenseTime)和曠視科技(Megvii)。

每次有新項目訪問數據集時,損害可能導致的影響和範圍都會發生變化。數據的可移植性和互聯網的快速度結合在一起,大大擴展了一個研究項目的可能邊界,也把風險擴展到遠遠超出任何一所大學能承擔的範圍。

解決嘗試:建立學術審查系統

杜克大學最終決定刪除與該研究相關的數據集。斯坦福大學清除了研究人員基於舊金山咖啡館的顧客所創建的數據集。

科羅拉多大學博爾德分校信息科學系助理教授Casey Fiesler撰寫了關於在研究中使用公共數據的倫理學。Fiesler提出了一種用於審查數據集訪問的系統,與審查版權類似。她指出,系統中的使用條款主要關注請求者計劃如何使用該數據。

“爲這些數據集設置守門人是一個好主意”,她說,“因爲只要明確使用目的,請求者就能夠訪問數據集。”類似的規則在開源軟件和Creative Commons的標準化版權許可協議上已有應用。

Creative Commons是一種基於許可的系統,請求者只能將獲得的作品作爲非商業用途,而一旦他們隱瞞或歪曲意圖,則需要承擔責任。這些標準可能與學術環境並不完全匹配,但至少在切斷後續傷害方面是有用的。“這並不是將規則繁瑣化,但它提出了一種方法,使得你無論決定要做什麼時,都把前後因果考慮進去”,Fiesler說。

種族歧視&影響執法:應用中暴露的技術盲區

當人臉識別技術走出實驗室,走進現實生活,它就被賦予了更多意義——你的臉將不再只是一張具有生物屬性的臉了。在足球比賽中,你的臉是貨幣,用於在體育場購買食物。在商場,它是一個賬本,用於告訴銷售人員你過去的購買行爲以及購物偏好。在抗議中,你的臉會反映出你過去被逮捕的歷史。即使在太平間,臉也能幫助官方機構識別遺體。

隨着人臉承載的意義不斷加強,技術錯誤導致的後果嚴重性也隨之增強。在現階段的應用中,人臉識別技術的一些弊端已經暴露。

識別準確度存在差異,加劇種族歧視

2016年麻省理工學院的研究員Joy Buolamwini研究表明,人臉識別技術的準確性在膚色較淺的男性中表現優於膚色較深的男性,而對於膚色較深的女性則表現最差。

美國公民聯合會(ACLU)也發現了類似的問題。當ACLU將國會議員與犯罪數據庫進行匹配時,亞馬遜的Rekognition軟件對黑人議員的錯誤識別比白人議員多得多,儘管黑人議員在總體數量中佔比更小。其中包括衆議院議長Elijah Cummings,一名巴爾的摩人。

對不同膚色人種間識別的準確度差異可能加劇種族歧視的指責,微軟和亞馬遜都聲稱,自麻省理工學院和ACLU的報告發布以來,公司已經優化了技術對識別不同種族在準確性方面的差異。但是,更準確地識別有色面孔只是技術需要改進的一部分,因爲即使完全準確的技術仍然可以用來支持對有色人種有害的執法措施。

對技術本身的改進和完善並不是最重要的議題,如何使用這項技術才更應該被關注。微軟和亞馬遜提出的解決方案是在技術應用後對面部識別存在問題進行糾正,但這只是亡羊補牢。

人臉識別執法可行性存疑

5月初,《華盛頓郵報》報道稱,警方正在使用面部識別軟件抓捕疑犯。一名目擊者向警方描述了嫌疑人的外貌,警察據此畫出草圖上傳到亞馬遜的Rekognition,並最終逮捕了某人。這一事件震驚了國會聽證會上的專家——提交給數據庫的草圖竟可以被當做逮捕嫌疑人的充分依據。

對此,亞馬遜網絡服務首席執行官Jassy稱,亞馬遜從未收到對警方誤用技術的投訴。就在今年5月,亞馬遜股東投票否決了一項禁止向警方出售Rekognition的提案。亞馬遜的一位代表在一份聲明中說,“亞馬遜從未收到過任何公衆投訴,而且地方機構在使用Rekognition方面沒有任何問題。”

立法者&製造商:把“危險的”人臉識別關進籠子

爲了平衡人臉識別技術的回報與風險,華盛頓州、馬薩諸塞州、奧克蘭市以及美國立法機構提出了一系列監管建議。衆議院監督和改革委員會的共和黨人和民主黨人舉行了幾個小時的聽證會,並表示兩黨願意共同努力來規範這項技術。

Face API和Rekognition軟件的製造商微軟和亞馬遜也對聯邦監管表示支持。今年6月,美國排名第一的隨身攝錄機製造商Axon同意其道德委員會的建議,即不要讓Axon相機配備面部識別裝置。

去年,微軟總裁Brad Smith呼籲各國政府“立法來規範這項技術”。而亞馬遜網絡服務公司首席執行官Andy Jassy在6月份表示附和,他將這項技術比作一把刀。這位來自世界上最強大的面部識別技術公司的高管想表達:這個東西很危險。

但在呼籲監管方面,微軟和亞馬遜採取了一個巧妙的伎倆:他們沒有就面部識別是否應該被廣泛應用進行辯論,而是在討論這一技術應該如何被應用。

亞馬遜在《大西洋月刊》上發表的一份聲明中表示,它正在與研究人員、立法者及其客戶合作,“瞭解如何最好地平衡面部識別的益處和潛在風險”,並指出Rekognition具有多種用途,包括打擊人口販賣並找到失蹤人員。微軟重申Smith的聲明,表示支持面部識別法規的建立,包括施行鍼對濫用行爲的規範,以及獲得被識別對象的許可。

但一些隱私專家認爲這些公司別有用心。羅切斯特理工學院哲學教授Evan Selinger指責微軟和亞馬遜試圖“遏制強有力的監管”。他認爲,這些公司努力推動聯邦層面的監管,是因爲全國性的法律通常代表着底線,與地方性法律相比,它們不太可能對私營公司如何使用該技術進行限制。

目前看來,學術倫理和技術盲區的問題正在逐步解決,人臉識別的“狂奔”之路並不會因此減速。在人臉識別技術大範圍應用之前,這可能是我們擁有自己面孔的最後時光。

終有一天,我們的臉將不再屬於我們,但在此之前,我們對這項技術的瞭解決定了我們會成爲受益者還是受害者。當科技公司不斷地縮小問題的討論範圍,將公共治理轉變爲服務條款協議,我們能做的,就是在一方設定條款的時候,不要當不感興趣的另一方,只會簡單地說:“我同意”。

鈦媒體注:本文來自於微信公衆號全媒派(ID:quanmeipai)。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章