爲什麼人臉識別系統總是認錯黑人?

來源|淺黑科技

編輯|木子Yanni

爲什麼人臉識別系統總是認錯黑人?

技術不懂什麼是種族偏見,人臉識別卻一再翻車。

從良民到罪犯,有時候就是這麼簡單。

01

荒唐樹上荒唐果,荒唐樹下黑小夥

沒有駕照,就不能開車搶劫?FBI 第一個站出來反駁。

2019 年 1 月的一個週六,兩名警察來到一家酒店。幾十分鐘前,他們接到報警,說有一名黑人男子在禮品店裏偷喫零食,被店員逮了個正着,你們趕緊來看看呀。

 

警察到時,被抓住的黑人男子已被帶到酒店辦公室,此人身高約 6 英尺,身穿黑色夾克,與膚色幾乎融爲一體。

 

事不宜遲,FBI 立馬掏出小本本,盤問起事情經過,黑人男子非常配合,一開口就是道歉,說會把喫掉的零食錢補上,還主動把自己的駕照遞給了 FBI。

 

兩名警察一看,誒,這小夥挺懂事兒,其中一名警察伸手接過駕照,瞥見姓名一欄印着 Jamal Owens,另一名警察則開始搜身。

▲男子交出的駕照

幾乎是同一時間,兩名警察都皺起眉頭:一人察覺到駕照有異樣,懷疑是個山寨貨;另一人則在黑人男子的口袋裏,摸到了一袋高度疑似大麻的東西。

 

倆人警覺起來,順勢做出掏手銬的動作,就在此刻,剛剛還滿口騷瑞的黑人男子,撒丫子就朝酒店門口狂奔,並迅速鑽進一輛車裏,瘋了似的猛踩油門,哪怕撞上了停在不遠處的警車,也只有三秒鐘的減速,很快就消失在了街道盡頭。

 

儘管犯人在眼皮子底下溜走了,但往好處想,畢竟他的假駕照還在手裏,順藤摸瓜,絕對跑不了。

 

兩名警察迅速返回警局,把假駕照上的照片發給了擁有人臉識別技術的州政府機構。

 

第二天,匹配就有了結果:照片比中了家住 30 英里外的一名黑人男子。資料顯示,此人名叫帕克斯,在一家雜貨店工作。(爲產生誤會,補充一句,帕克斯曾有前科,所以系統中留有照片)

 

謹慎起見,警員先把帕克斯的身份證和那本假駕照做了比對,認爲是同一個人,又覈對了一遍假駕照,確定照片上這個男子,就是當天逃跑的那個人。

 

雙重確認後,FBI 立即簽發了對帕克斯的逮捕令,罪名有盜竊商店、僞造政府文件、拒捕等。

 

根據現有資料,警方突襲了幾個可能的地址,卻都沒有找到帕克斯,反而是帕克斯本人在跟祖母聊天時,無意中聽說警察在逮捕自己,堅信這是個誤會的帕克斯,趕忙給表哥打了個電話,表哥一聽,不敢耽誤,迅速開車把帕克斯送到了警局。

 

帕克斯本來是去澄清的,誰知警察不由分說,直接手銬伺候,還安排了好幾個警察同時審訊。

 

FBI:你自己幹過什麼,心裏很清楚吧?

帕克斯:我冤枉,那人真不是我,我壓根兒不會開車,今天還是我哥送我來的呢~

FBI:都到這兒了,你還裝!我看你挺會開車~

帕克斯:嗯?我希望你搞清楚一點,不是所有的黑人都長得一樣。

FBI:還敢猖狂,來人,關起來。

▲左:帕克斯

右:入店行竊嫌疑人

被關押了 10 天后,帕克斯終於獲准保釋,隨後,他走上了長達一年的訴訟之路。

 

說到被人臉識別誤抓,帕克斯可不是唯一一個。

 

2020 年初,威廉姆斯正坐在辦公室裏工作,突然,桌上的電話鈴聲大作,威廉姆斯接起電話,還沒開口,對方先自報家門,稱自己是底特律警察局,還說已經拿到威廉姆斯犯事兒的證據了,識相的話,趕緊去警局自首。

▲威廉姆斯本尊

騙子真多!威廉姆斯掛了電話,繼續工作。

一小時後,威廉姆斯剛把車開進自家車道,一輛警車就冒了出來,兩名警察走下車,把一張紙舉到威廉姆斯面前,上面印着一張照片,還有幾個格外扎眼的詞:“重罪逮捕令”,“盜竊罪”。

 

隨後,當着威廉姆斯妻子和兩個女兒的面,FBI 用手銬帶走了他。

▲威廉姆斯幸福的一家

在審訊室裏,FBI 舉着三張照片,兩張是被盜商店的監控照片,另一張是威廉姆斯的駕照照片,不厭其煩地引導威廉姆斯,希望他趕緊承認是自己盜竊了價值數千美元的鐘表。

 

和上個故事中的帕克斯一樣,威廉姆斯也發出了同樣的靈魂拷問:

 

警官,你是不是認爲所有的黑人都長一個樣?

▲左:被盜商店拍下的嫌疑人

右:威廉姆斯的駕照照片

拒不招認的威廉姆斯,在被拘留了 30 個小時後,終於等到了一句答覆:

不好意思,我猜是電腦搞錯了。

 

與這兩次誤捕相比,奧利弗的遭遇更加心塞。

 

奧利弗也是被人臉識別系統比中,被指控把手伸進一臺車裏,從一位老師手裏搶走了手機。

 

案發當時,這位老師看到學生在打羣架,趕緊掏出手機錄像,還沒錄多久,一個黑人男子就突然出現在車窗外,凶神惡煞地搶走了手機。

 

▲左:手機錄下的搶手機黑人男子

右:被捕的奧利弗

審訊室裏,當 FBI 把照片擺成一排,準備開啓講道理模式時,奧利弗實在沒忍住:我的胳膊上有陳年釀造的文身,你們再看看嫌疑人,胳膊上空空如也,我們怎麼能是同一個人呢?

▲倆人的紋身區別

嘿,原來又是誤會。

 

荒唐樹上荒唐果,荒唐樹下,盡是美國黑小夥兒。

02

誰矇蔽了人臉識別的眼睛?

人臉識別頻頻認錯人,是技術的淪喪,還是“機”性的扭曲?歡迎收看本期真相揭露:人臉識別之深膚色尷尬了。

 

2018 年,美國《紐約時報》發表過一篇文章,引用美國麻省理工學院的最新研究論文,證實在不同種族面前,人臉識別的準確率存在巨大差異。

▲紐約時報刊文

研究員創建了一個包含 1270 張面孔的數據集,包括以深膚色爲主的 3 個非洲國家,以及淺膚色的 3 個北歐國家,並找來三款主流的人臉識別系統進行測試。

▲數據集中的一部分

結果顯示:白人的識別錯誤率最低,僅爲 1%,膚色越暗,錯誤率越高。這其中,又以黑人女性的錯誤率最高,達到 35%。

人臉識別難道成精了,深諳漂亮國那套歧視法則嗎?又或者,背後有其他原因?

我們都知道,人臉識別技術依賴於深度學習,用來訓練的數據集越大,樣本類型越平均,效果也就越好,再配上一套優質算法,搭一個傳感器,人臉識別就可以上崗就業了。

在這個過程中,數據集、算法和傳感器都是關鍵,那麼,問題到底出在哪一環中呢?

1、缺失的數據集。

早期,研究人員要想得到人臉照片,唯一的方式就是購買:貼出廣告,吸引有意向的人來到實驗室,在簽署同意書後,讓這些人在不同的光線下,用不同的姿勢拍照,以此作爲訓練 AI 的樣本。

這種方式創建出的數據集,照片質量高,樣本分佈均衡,只有一個缺點:費錢。

到了互聯網時代,一種又快又不用花錢的照片獲取方式出現了:網絡搜索下載。鋪天蓋地的新聞圖片,抓來就能訓練。

白嫖來的樣本,自然比不上付費的,別的不說,光樣本數據量分佈就不達標。

在美國,有超過 40% 的成年公民,主要通過 Facebook 來看新聞,有媒體對新聞配圖按性別進行了統計,驚訝的發現,不管是經濟還是娛樂版塊,女性的出場率都遠遠低於男性,哪怕都是單人新聞圖片,女性形象在圖片中的佔比,也處於劣勢。

▲女性出場率遠低男性

但在現實中,美國的男女比例是大致均衡的。

目前來看,單就網絡上展示的性別比例,女性就已經輸了,那膚色比例是否平均呢?

來自麻省理工學院媒體實驗室的研究人員喬伊·博拉姆維尼,曾公開分享經歷,說自己在很多場景下,只有戴一個白色面具,才能被人臉識別傳感器看到。

▲喬伊·博拉姆維尼

喬伊和同事們發現,人臉識別存在嚴重的性別偏見:最糟糕的情況下,深色女性面孔的失敗率超過三分之一,相比之下,白人男性卻有機會獲得低至 0% 的錯誤率。

 

爲了尋找造成這種性能差異的原因,喬伊研究了兩個常用的面部數據庫,最終發現,這兩個數據集中,淺色皮膚佔據絕大多數,導致樣本數據的不平衡,並最終導致了識別錯誤率的差別。

 

爲了抵抗數據集中存在的歧視,她發起了一個叫做“性別陰影” (Gender Shades) 的項目,重點強調交叉性:數據集應該兼顧四個類型,包括深膚色男 / 女性,以及淺膚色男 / 女性。

▲“性別陰影”項目

2、一再失誤的算法。

2015 年,美國發生了一件“震驚三連”的事情。

黑人小哥 Jacky Alciné 閒來無事,把一些照片上傳到了谷歌相冊,沒想到,Google 的圖像識別算法在對照片進行分類的時候,竟然把他的黑人朋友認成了大猩猩。

▲當事人氣到爆粗口

震驚之餘,Jacky Alciné 第一時間向 Google 投訴,而 Google 聽說這一事件後,同樣表現的很震驚,馬上向 Jacky Alciné 道歉,並承諾立刻整改。

魔幻並沒有停在這裏。

兩年半之後,《連線》雜誌震驚的發現,谷歌整改的方式竟然是:在圖像識別算法中,刪掉了“大猩猩 gorilla”這一類別。這意味着,不會再有黑人被識別成大猩猩,因爲算法已經徹底不認識大猩猩了。

這件事爆出後,Google 承認,在圖片識別標籤中,他們確實刪掉了“大猩猩”,給出的解釋是:“圖片標籤技術仍處於早期,很不幸,它離完美還差得遠。”

這、說什麼好呢?我猜谷歌的人臉識別算法人員,應該都是白色程序猿,他們不會經歷這樣的事情,也沒想到會有這樣的事情,他們也很懵圈。

現實中,深膚色人的面部特性確實比較難找,尤其在暗光環境下,光是檢測到臉就很難了,更別提捕捉面部特徵,這對於算法確實是一大挑戰。

在樣本數據不足的情況下,人臉識別算法一般的做法,是根據特定的面部特徵,比如眼距、膚色等,開啓預測模式,但算法預測所依賴的面部特徵,本身就不準確,勢必會導致識別失誤,比如把深色皮膚的女性識別成男性,或者把良民識別成罪犯。

對算法來說,深膚色面部檢測雖然是挑戰,但也不是不能優化,關鍵在於是否利益相關。

以上雖爲個人猜測,但是,我也找到了一點論據支撐。

很多互聯網公司都有招聘算法,以亞馬遜爲例:如果一個男性是能力匹配的基準線,那麼,女性申請者和她們的屬性就會對應降級,再加上衆所周知的歷史傳統,在實際操作中,膚色同樣是職位考量的因素之一。

這不禁讓我想到小說《心是孤獨的獵手》中的一句話:對黑人來說,所有白人長得都差不多,但黑人會費心辨認他們。另一方面,對白人來說,所有黑人長得都差不多,但白人通常不會費心記住一張黑人的臉。

職位人選的底色,不僅會影響到某個算法的開發和執行,還會深刻影響整個領域的多樣性,具象到現實,一定會出現深膚色人羣被誤認成大猩猩這樣的鬧劇,以及忽略算法優化、只是刪掉大猩猩分類的神操作。

3、選擇性失明的傳感器。

如果說眼睛是心靈的窗戶,那有些傳感器的心是真的不靈。

2009 年,德克薩斯州,在一家露營商店工作的兩位工人,正在電腦上測試惠普新出的面部自動跟蹤系統,並用視頻記錄下了整個過程。

▲測試視頻

在視頻中,他們自稱黑人德西和白人旺達。

黑人德西說:“看看我進入畫面時會發生什麼。”尷尬的是,什麼都沒有發生,攝像頭完全追蹤不到德西的臉。

但是,當白人旺達的臉出現在攝像頭面前時,面部追蹤系統就開始工作了。

此外,一位用戶名叫做 Teej Meister 的油管用戶,也曾吐槽一個感應洗手池:“白人專用?”

▲Teej Meister: “白人專用?”

你瞧,在人臉識別的傳感器環節,社會責任感同樣處於缺失狀態。

面對充滿缺陷和偏見的人臉識別系統,很多國家的研究機構都在呼籲:“必須立即停止使用這項反烏托邦技術”。

▲呼籲停止使用人臉識別技術

如潮的輿論下,舊金山跑的最快,成爲美國第一個禁止所有警察和城市機構使用面部識別技術的城市,它後面跟着一系列準備效仿、以及還在觀望的城市。

03

被誤抓的黑人小哥,竟擊中社會 G 點?

20 世紀 40 年代,喬治·奧威爾創作了一部反烏托邦小說《1984》,勾勒了一副令人窒息、壓抑的畫面:

未來的一大景象,是公民處於無處不在的嚴密監視下,爲了躲避“老大哥”的監視,公民不得不祕密找到一個黑暗房間,通過在對方手臂上敲擊密碼來互相交流。

▲《1984》中的“老大哥”

如今,“老大哥”已經成爲濫用政府權力的代名詞,人臉識別技術就是一個重要工具:你以爲老大哥看着你?它只是看錯了你。

小說只是藝術創作,但歷史的車輪滾滾向前,黑人卻始終站在話語權的邊緣。

18 世紀,紐約曾施行一套法律:燈籠法 (Lantern Laws)。

▲Lantern Laws

燈籠法規定,日落之後,黑人、混血兒和土著奴隸要想在城市裏走動,如果身邊沒有白人,就必須攜帶一個蠟燭燈籠。如果不這樣做,一經發現,就會被抓進監獄,直到“主人”來認領,而在等待期間,他們可能會經歷毆打等各種遭遇。

同一個城市的燈籠,並沒有平等照亮每個人的權利,光是一種偏見,社會沒有看見。

2019 年,28 歲的倫敦黑人男子巴達,正在通過網站更新護照,一個重要步驟是上傳照片。

巴達上傳了一張提前準備好的高清照片,以爲很快就可以完成更新流程,沒想到,人臉識別系統竟彈出了一個令人哭笑不得的提示:不能上傳張嘴照。

網站對照片有嚴格規定,比如不能張嘴,不能閉眼,不能做鬼臉等,這些巴達早就知道,只是沒想到,人臉識別系統竟“嚴格”到如此不講道理的地步。

重試 N 多次,系統始終提示照片張嘴無效,無奈之下,巴達只能在備註中寫道:“我的嘴是閉着的,我只是嘴脣很厚。”

▲張嘴?無效?

同一個國家的業務平臺,並沒有公平對待每個人的權利,算法是一種偏見,社會沒有看見。

直到幾位黑人小哥被警局誤抓,才終於擊中了社會 G 點,這種來源於種族歧視和隱私信息濫用的雙重憤怒,讓社會不得不看見。

蹲在警局裏的黑人小哥揮揮翅膀,改變了不少風向。

多地政府呼籲停止警局使用人臉識別技術,併發布了反面部識別條例;不少硬件廠商也開始有所動作,警用執法記錄儀製造商 Axon 發聲稱,自家制造的攝像頭產品將不具備面部識別功能;各大技術公司也開始變得謹慎,比如微軟悄悄刪除了據說是全球最大的公開人臉識別數據庫 MS Celeb,藍色巨人 IBM 更是高調宣佈,不再提供任何人臉識別服務和人臉分析軟件,完全退出這一市場。

看似一切都在改變,不過有趣的是:狡兔還有三窟,偏見又怎會把自己封在條框裏?只要人心裏有它的位置,它便能永生。

 參考資料:

1https://abc7news.com/criminal-facial-recognition-racial-bias-in-technology-man-falsely-arrested-nijeer-parks/9197215/

2https://abcnews.go.com/Business/federal-study-finds-racial-bias-facial-recognition-tech/story?id=67853261

3https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html

4https://www.freep.com/story/news/local/michigan/detroit/2020/07/10/facial-recognition-detroit-michael-oliver-robert-williams/5392166002/

5https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html?auth=login-google

6http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

7https://www.media.mit.edu/projects/gender-shades/overview/

RECOMMEND

網易智能有12個不同垂直領域社羣等你來

添加智能菌微信:kaiwu_club

掃碼瞭解更多

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章