那些被自動駕駛“殺死”的人

法國哲學家阿爾伯特·加繆曾經說過,沒有哪種死法比車禍更荒謬。然而 1960 年,加繆死於車禍。

半個多世紀過去了,這樣的「隨機性殘忍」時有發生。

駕駛機動車已成爲大多數成年人做的最危險的事情之一,2018 年,全球因車禍事故造成的死亡人數超過 140 萬。

這幾年自動駕駛在全球範圍內燎原式發展,這一技術據稱能消除 94% 由人爲失誤造成的車禍。

某種程度上,自動駕駛汽車有機會成爲救命良方。但我們還沒有走到那一步,自動駕駛的發展還處在中古時期,充滿了太多的不確定性和未知。

我們緬懷這些在自動駕駛歷史進程中,因爲技術不夠完善而遭遇不幸的人們,發展自動駕駛,每一個參與其中的人都應心存敬畏。

事故一

時間:2016 年 1 月 20 日 地點:京港澳高速河北邯鄲段 事故車輛:2014 款白色特斯拉 Model S 罹難者:高雅寧(23 歲)

2016 年 1 月 20 日,京港澳高速河北邯鄲段發生了一起追尾事故。

一輛特斯拉 Model S 直接撞上正在作業的道路清掃車,Model S 當場損毀,司機高雅寧不幸身亡。

根據車輛行車記錄儀拍下的畫面顯示:

2016 年 1 月 20 日 14 時整,高雅寧駕駛車輛從河北邯鄲入口進入高速,沿着左側第一車道行駛。

當天天氣晴好,車輛速度也不是很快,14 時 08 分,高雅寧還哼了幾句歌。

14 時 09 分,行車記錄儀的畫面中可以看到前方的道路清掃車正在作業的指示燈,隨後開在前面的黑色轎車向右併線到第二車道。

但高雅寧駕駛的特斯拉在距離道路清掃車越來越近時,沒有進行減速或者變道,而是徑直撞上了前方的道路清掃車。事故發生後,道路清掃車司機報了警。

經過警方的調查,他們發現在發生事故前,高雅寧駕駛的特斯拉轎車沒有進行任何的緊急制動和躲避措施,直接發生了追尾事故。

事故發生時,高雅寧剛剛 23 歲,他的父親高巨斌始終無法理解在行車記錄儀裏明明早就看到了道路清掃車,爲什麼兒子高雅寧既沒有剎車也沒有躲避而是直接撞了上去?

高巨斌介紹,高雅寧早在 2011 年就考取了駕照。

2013 年,他以大學生的身份參軍入伍,在部隊中擔任大型軍用車輛的駕駛員,一直表現優秀。在 2015 年 9 月,高雅寧復員回家。

事發後,高雅寧部隊的戰友和上級都表示,高雅寧的駕駛技術完全沒問題,安全駕駛的公里數爲幾萬公里。

既然是這樣,爲何高雅寧沒有采取任何動作?父親高巨斌表示:「如果不找找這個問題,孩子死不瞑目。」

於是高巨斌將這起事故的行車記錄視頻發給了一些專業人士進行分析,他們得出的一致結論是:這輛特斯拉當時應該處在定速的狀態。

後續,特斯拉方面也承認車輛在事故發生前其 Autopilot 系統是開啓的狀態,這導致了高雅寧在高速上行駛時沒有把注意力放在前方道路上,而且 Autopilot 系統也沒有識別出前方的道路清掃車,最後導致了這起悲劇。

高雅寧是在 2014 年購買的特斯拉 Model S,當時車上並沒有自動駕駛功能,但是相應的硬件已經配齊,包括 1 個前置的攝像頭和 Mobileye EyeQ3 芯片負責視覺感知;車前方裝配了一個非隱藏式毫米波雷達;車輛周身配備了 360 度超聲波傳感器。

2015 年 10 月,特斯拉開始向全球車主陸續推送 V7.0 版本的軟件更新,Autopilot 的主要功能得以解鎖,加入了自動車道保持、自動變道和自動泊車三大輔助駕駛功能。Autopilot 也成爲特斯拉着力宣傳的賣點。

事故發生的 2016 年 1 月,Autopilot 系統在大部分情況下能夠較好識別路況(包括車道線和其他車輛的位置)並進行處置。

但是針對錐桶、行人這樣的小型障礙物,系統還識別不了。這起事故中,Autopilot 系統沒有識別到前方的道路清掃車,所以在碰撞前沒有采取任何措施。

2016 年 7 月,高雅寧的家人將特斯拉的經銷商起訴至北京市朝陽區人民法院,要求賠償損失 10000 元,理由是特斯拉在其自動駕駛系統尚不完善過關的情況下仍然通過誘導宣傳讓用戶信任這套系統,應該承擔相應的法律責任。

針對賠償金額,高雅寧家人的代理律師表示,賠償的多少並不是本案所追求的目的,而是通過這起案件帶來一些社會價值:

讓公衆知道目前自動駕駛的缺陷,希望特斯拉公司能夠在宣傳、產品營銷過程中有一個慎重的態度,不要把自動駕駛作爲吸引年輕人的賣點。

在高雅寧事故之後,特斯拉的 Autopilot 系統似乎進入到了事故的怪圈中,接二連三出現開啓 Autopilot 功能後致死致傷、車輛財產損失的事故。

這起事故在發生之後很長一段時間裏,沒有被太多報道,致使公衆對這起事故的認知少之又少。

後來我們知道,2016 年 5 月 7 日發生在美國佛羅里達州的特斯拉 Autopilot 致死事故引起了廣泛關注,被稱爲「全球範圍內第一起自動駕駛致死事故」。

但事實上,高雅寧案要比之更早,但在當時只被認爲是一起普通追尾事故,沒有引起自動駕駛業內足夠的重視和警惕,這是非常令人遺憾的。

事故二

時間:2016 年 5 月 7 日 地點:美國佛羅里達州 Wiliston 27 號高速 事故車輛:2015 款黑色特斯拉 Model S 罹難者:Joshua Brown(40 歲)

時間來到 2016 年 5 月 7 日,距離高雅寧事故發生不到 4 個月後,在美國佛羅里達州一段沒有完全封閉的高速公路上,40 歲的俄亥俄州居民 Joshua Brown 駕駛的一輛 2015 款黑色特斯拉 Model S,撞上了一輛正在左拐的拖掛式卡車。

Joshua Brown 是一位狂熱的特斯拉粉、科技愛好者,爲自己的愛車取名「Tessy」。他經常在 Youtube 上發一些與特斯拉有關的視頻,是個小有影響力的視頻博主。

他曾經在推特上發佈了一段特斯拉 Autopilot 系統幫助他避免一場車禍的視頻,還得到了 Elon Musk 的轉推。

據 Brown 的鄰居回憶,Brown 曾跟她聊天時談到:「如果有幸能得到 Elon Musk 的關注,我死也值了。」

沒想到一語成讖。

事故那天天氣晴好,頭頂是藍天白雲,心情不錯的 Joshua Brown 駕駛着他心愛的 Model S 飛馳在佛羅里達州 27 號高速上。

他開啓了車上的 Autopilot 系統,將自適應巡航的速度調至每小時 74 英里。因爲對 Autopilot 系統足夠信任,他沒有將全部注意力放在車輛前方的道路上。

差不多時間,貨運司機 Frank Baressi 駕駛着他的白色拖掛式卡車也行駛在 27 號高速上,但他在 Joshua Brown 的對向車道上。

行至一個路口時,Frank Baressi 進行左轉準備下高速。就在這時,Joshua Brown 和他的特斯拉 Model S 都沒有注意到前方正在轉彎的的白色卡車。

在沒有任何反應的情況下,Model S 朝着卡車車廂撞了上去,車輛擋風玻璃首先撞上車廂底部,車頂被掀掉後從卡車車廂底部穿出,因爲速度過快,Model S 還連撞了幾個道路圍欄、樹木還有電話亭後才最終停下。

Joshua Brown 在這場車禍中喪生。

一個鮮爲人知的細節是,卡車司機 Frank Baressi 後來向美聯社回憶,事故發生後當他靠近事故車時,聽見車裏正在播放電影《哈利·波特》,當時警察也在事故車上找到了一臺便攜式的 DVD 播放機。

若他所言爲真,這就解釋了爲什麼 Joshua Brown 在碰撞發生前沒有進行任何接管車輛和踩剎車的動作。

這起致死事故引發了全球範圍的關注,面對鋪天蓋地的報道和討論,特斯拉再也不能像處理高雅寧案那樣鎮定自若了。

針對這起事故,特斯拉在其官方博客發表了聲明,他們認爲這起事故的特殊之處在於:拖掛車正在橫穿公路,且車身較高,這一情況導致了 Model S 的前擋風玻璃與掛車底部首先發生撞擊。

假使當時車輛發生的是正面撞擊或追尾事故,即便在高速行駛條件下,Model S 的防撞系統都極有可能避免人員傷亡的發生。

特斯拉同時強調,每一次自動駕駛啓動時,車輛都會提醒駕駛員「請始終握住方向盤,準備隨時接管」。

言下之意就是 Joshua Brown 並未按照系統的提示手握方向盤,所以特斯拉系統不負主要責任。

而針對車輛系統未檢測到白色的拖掛卡車車廂、AEB 系統也沒有及時起作用的情況,特斯拉的供應商 Mobileye 也發佈了官方聲明:

「當前的防碰撞技術或者自動緊急制動系統 AEB 的設計,是爲了防止與前車車尾的碰撞。在這起事故中,涉及到對橫向行駛車輛的處理,不屬於這一代 AEB 的設計目標。」

就此將事故責任與自己撇清。

汽車之心基於多位業內專業人士的分析認爲:

在 Joshua Brown 的事故中,毫米波雷達已經檢測到前方卡車車廂的存在,但它無法判斷車廂的高度,結合視覺感知把卡車白色的「車廂」當成了天上的「白雲」,最終系統傾向認爲車廂是一塊懸在道路上方的路牌。

2017 年 1 月 20 日,美國 NHTSA 給出的事故最終結論是:

沒有足夠有力的證據表明特斯拉的自動駕駛系統直接導致了 Joshua Brown 的不幸,將不會對任何一輛特斯拉進行召回。至此,爲期 8 個月的事故調查告一段落。

這起事故受到了全球關注和討論,也帶來了一些深遠的影響。

特斯拉和 Mobileye 在這起事故後的 2 個月宣佈合作關係破裂,Mobileye 將不再向特斯拉供應 EyeQ 芯片以及相應的視覺算法。

特斯拉對此的解釋是 Mobileye 難以跟上其產品的發展步伐,雙方分手不可避免;還有傳聞說是特斯拉想自己開發視覺算法而 Mobileye 不同意才導致雙方關係破裂。

後來的故事大家都知道,特斯拉轉向與英偉達進行合作,並且在視覺算法上轉向自研,內部成立 Tesla Vision 團隊。

2016 年 10 月,特斯拉還發布了全新的 Autopilot 2.0 版本硬件:

英偉達 Drive PX2 芯片;12 個超聲波雷達;1 個毫米波雷達;8 個全車攝像頭(三目前視、正側方、側後方、後置攝像頭)。

另一方面,2016 年 7 月特斯拉在中國的經銷商被高雅寧家屬告上法庭,加上佛羅里達事故被全球關注——雙重壓力下,2016 年 8 月份,特斯拉中文官網將「自動駕駛」改爲「自動輔助駕駛」。

特斯拉中國公司員工還需接受額外培訓,在演示相關功能時,必須將雙手放在方向盤上。

之後很長一段時間,特斯拉 Autopilot 沒有出過大問題。

但在當地時間 2018 年 3 月 1 日,一起與 Joshua Brown 事故如出一轍的悲劇又發生了。

事故三

時間:2018 年 3 月 1 日 地點:美國佛羅里達州棕櫚灘 事故車輛:紅色特斯拉 Model 3 罹難者:Jeremy Banner

3 月 1 日,Jeremy Banner 從睡夢中醒來,開上他的紅色特斯拉 Model 3,沿着佛羅里達的大沼澤地的邊緣向南行駛,車窗外的沼澤和農田快速掠過。

他輕撥了兩下方向盤下的操縱桿,車內響起提示音,他啓動了車上的 Autopilot 系統。

行至一處路口的時,Banner 沒能發現正前方有一輛拖掛卡車正穿過四車道的高速公路,Model 3 的 Autopilot 系統也沒有注意到,車輛以 109 公里的時速撞了上去,車頂直接被掀翻,這位有三個孩子的 50 歲父親當場死亡。

這次事故的場景與 2016 年 5 月發生的 Joshua Brown 事故如出一轍,兩年的時間,特斯拉 Autopilot 依然對這樣的駕駛場景束手無策。

這一特殊場景,值得所有自動駕駛研發公司進行針對性研究。

Banner 的家人根據佛羅里達州的《非正常死亡法案》起訴了特斯拉,要求產品責任索賠。

前文我們提到,特斯拉針對 2016 年 5 月份發生的事故曾經聲明:車輛與拖掛卡車車廂底部相撞後直接穿過去的情況是「極其少見」的。但同樣的事故,在特斯拉身上已經發生了兩起。

事實是,在美國,這樣場景的事故每年都會發生幾百起,而且基本都是撞向車廂的側面然後從底部鑽了出來,但是業界一直沒有采取有效措施來避免類似的事故。

後來,有一些創業者提出一些改進措施,就是在拖掛卡車的車廂兩側安裝一個類似於護翼的裝置,能夠避免車輛在撞向卡車車廂側面時竄入車底而引發更大的傷害。

人們給這樣的裝置起了一個很美好的名字「AngelWings(天使之翼)」。

2017 年,IIHS 針對 AngelWings 裝置進行了測試,在車輛時速 35-40 英里時表現良好。

事故四

時間:2018 年 3 月 18 日 地點:美國亞利桑那州坦佩市 事故車輛:Uber 自動駕駛測試車 罹難者:Elaine Herzberg(49 歲)

同樣在 3 月,Uber 自動駕駛測試車致死事故引發了全球行業震盪。

在一個看似尋常的週日晚上,一輛基於 2017 款沃爾沃 XC90 打造的 Uber 自動駕駛汽車正在亞利桑那州坦佩的一條既定路線進行道路測試,車輛駕駛位上是一名 44 歲的白人女性,她是這輛車的安全員。

晚上 9 時 39 分,這輛車開啓了自動駕駛模式,系統接管了所有操作。19 分鐘後,車輛撞上了一位正推着自行車橫穿馬路的白人女性 Elaine Herzberg 並致其死亡。這是全球第一起自動駕駛測試車撞死行人事故。

事故發生的道路有 4 條車道,Uber 的自動駕駛汽車行駛在最右側的車道上,道路兩側是有路燈的。

但是 Elaine Herzberg 選擇橫穿馬路的地方並不是斑馬線區域,而且正好是路燈照不太到的位置。她推着車從左至右穿行,在快要穿過馬路時,Uber 的自動駕駛車撞倒了她。

車上的自動駕駛系統以及安全員都沒有及時發揮作用,導致被撞者身亡。車內的攝像頭錄下的視頻顯示,碰撞前幾秒,安全員還低頭往右下方看了兩眼。

Uber 爲這輛車配備了前向、後向、內視攝像頭共 10 枚攝像頭,還有毫米波雷達以及激光雷達,車內還集成了計算單元和數據存儲單元。

而且,沃爾沃在出廠前也爲這輛車配備了一系列駕駛輔助功能,其中包括 AEB 系統。但是 Uber 的設計邏輯是,一旦其自動駕駛系統接管了車輛,這輛 XC90 本身具備的一些駕駛輔助功能就無法使用。

美國 NTSB 針對這起事故發佈了兩份調查報告,汽車之心對其關鍵信息進行提取發現:

在碰撞前 6 秒,車上的毫米波雷達和激光雷達檢測到了前方行人的存在,當時車輛的時速是 43 英里。隨着行人和車輛越來越接近,自動駕駛系統不斷改變其判斷「結果」:

  • 碰撞發生前 5.2 秒,系統將 Herzberg 劃歸爲「未知物體」;
  • 碰撞發生前 4.2 秒,系統又將 Herzberg 重新歸類爲「車輛」;
  • 碰撞發生前 3.8-2.7 秒的時間段中,軟件的分類功能在「車輛」與「未知物體」的分類結果中跳動了好多次;
  • 碰撞發生前 2.6 秒,系統又變了,將 Herzberg 和她的自行車識別爲「自行車」;
  • 碰撞發生前 1.5 秒,Herzberg 被識別爲「未知物體」;
  • 碰撞發生前 1.2 秒,Herzberg 又被識別成了「自行車」;

碰撞前 1.2 秒時,Herzberg 進入了測試車的行車路線,自動系統才反應過來需要進行緊急制動。

但在這關鍵的 1.2 秒時間裏,因爲 Uber 方面爲系統設置了一個緊急情況動作抑制程序,需要花費 1 秒鐘時間來執行,所以車輛最後雖然進行了制動但已於事無補,Herzberg 被撞時車輛速度是每小時 39 英里。

Uber 後來解釋,在系統中加入動作抑制程序是因爲擔心在車輛進行測試時會系統頻繁誤報,給車輛帶來一些不必要的緊急制動。

致死事故發生後,Uber 叫停了在美國坦佩、匹茲堡、舊金山和多倫多等城市的自動駕駛汽車測試。

7 月底,Uber 宣佈終止開發自動駕駛卡車,從而把精力更加聚焦到自動駕駛乘用車上。

8 月份,Uber 重新開啓自動駕駛乘用車路測,但在一段時間內車輛必須由人工駕駛,主要是爲算法訓練和地圖收集信息數據。

而且,爲了讓這項技術重回公衆視野,Uber 在前美國國家交通安全局主席及交通專家的指導下,展開了大規模的「安全檢查」。

這起事故對於 Uber 自動駕駛來說,無疑是沉重的打擊。但是人命關天,Uber 的教訓也爲全世界範圍來所進行的自動駕駛研發和測試敲響了警鐘。

諸多企業甚至因此調整了開發策略,叫停了自動駕駛路測轉而更專心於打磨技術,豐田便是其中之一。

事故五

時間:2018 年 3 月 23 日 地點:美國加州山景城 101 高速 事故車輛:2017 款藍色特斯拉 Model X P100D 罹難者:黃偉倫(38 歲)

當人們還未從 Uber 自動駕駛致死案中緩過神來,特斯拉 Autopilot 又出事了。

3 月 23 日週五上午 9 時 27 分,38 歲的蘋果工程師黃偉倫(Walter Huang)駕駛着他的 2017 款特斯拉 Model X P100D 行駛在加州山景城的 101 號高速上,正往南開。

加州 101 號高速山景城段有 6 條向南的車道,其中最左側的多乘員車道(HOV)正好連着 85 號州際公路。

兩條公路的分流處有建好的混凝土隔離帶進行分隔,隔離帶上裝有碰撞減速裝置(Crash Attenuator),目的就是爲了減小車輛撞上隔離帶的衝擊力,避免更大的傷害。

但就在 3 月 12 日,該隔離帶發生了一次車禍,當時是一輛豐田普銳斯以時速 75 英里的速度撞上隔離帶。

所幸,車上的安全帶和安全氣囊以及隔離帶的碰撞減速裝置同時發揮作用,普銳斯車主倖免於難。該事故發生後,隔離帶上的碰撞減速裝置因爲各種原因遲遲沒有修復好。

當黃偉倫駕駛着特斯拉在 101 號高速左起第二車道上行駛時,根據車上的行車數據顯示,黃偉倫當時開啓了 Autopilot 系統,車輛正在進行自適應巡航,速度設定爲每小時 75 英里。

美國 NTSB 在 2018 年 6 月發佈的一份初步調查報告中稱:

黃偉倫的特斯拉在事故發生前 8 秒,以每小時 65 英里的速度跟在另一輛車後面;1 秒鐘後,特斯拉開始向左行駛,同時仍然跟在那輛車後面。

但在事故發生前的 4 秒鐘,特斯拉已經不再跟隨前方車輛,在撞擊前 3 秒,車輛加速到大約 71 英里每小時,最終撞上了碰撞減速裝置破損的隔離帶。根據 NTSB 對該車記錄的性能數據的總結,沒有檢測到碰撞前的剎車或規避轉向動作。

因撞擊力太大,特斯拉車身發生了逆時針旋轉,致使前車身結構和與車輛後部分離。

車輛在撞擊後因電池承壓過大而起火,黃偉倫被困在車內,一旁的羣衆將他從起火的車中轉移出來並聯系救護車將其送到最近的醫院。

不幸的是,黃偉倫因傷勢過重而不治身亡。

事故還導致了後續兩輛車的追尾,馬自達車主輕微受傷、奧迪車主無大礙。

事故後,特斯拉發佈聲明稱,發生碰撞前 6 秒沒有檢測到駕駛員的手有觸碰過方向盤,駕駛員約有 5 秒時間、距離 150 米 的無遮擋視野,可以看到混凝土隔離帶和壞掉的碰撞減速裝置。

特斯拉的言下之意就是,事故與己無關,是駕駛員黃偉倫沒有專心看路,未能及時接管車輛踩下剎車才釀成了致命事故。

特斯拉方面還認爲,破損的碰撞減速裝置加重了撞擊的嚴重性。

黃偉倫家屬對特斯拉發起了訴訟,原告律師在聲明中表示,事發時特斯拉的系統誤讀了車道線,未能發現混凝土隔離帶,未能及時剎車。

原告律師聲稱,特斯拉利用客戶真實駕駛來對其系統進行測試,導致妻子失去了丈夫,兩個孩子失去了父親。遇難者家人希望通過訴訟,防止這種悲劇再次發生在其他特斯拉車主的身上。

黃偉倫於 2017 年 11 月入職蘋果,而後購買了特斯拉 Model X 慶祝。按照特斯拉 Autopilot 硬件的裝車時間,這款車上至少是 Autopilot 2.0 版本硬件,甚至有可能是 Autopilot 2.5 版本硬件,其軟件能力也已進化至 V8 版本。

按理說,從硬件和軟件的配置來看,車輛不應該出現偏離車道的情形,而且車上配備的 AEB 系統,也應該在碰撞前進行緊急制動,但最終的結果是這些主動安全系統沒有發揮作用。

爲了驗證這起車禍是否爲偶然,另一名特斯拉車主以身試險,進行了一次還原測試。這位特斯拉車主在芝加哥一條高速公路上找到了和事故路段幾乎完全相同的路況。

他在開啓自動駕駛模式後,車速保持在每小時 59 英里,而當接近一處岔口時汽車儀表盤開始預警,提示司機將雙手放到方向盤上,車輛隨後徑直駛向了分岔路中央的隔離帶。

好在司機注意力集中,及時人爲完成剎車制動,汽車勉強停在隔離帶前。

從這次還原測試來看,特斯拉 Autopilot 系統在面對這樣的駕駛場景時,確實會出現偏離車道的問題,這無疑是系統致命的缺陷。

這也暴露出特斯拉在算法層面針對這樣的場景的測試並不夠完善。

對於這樣不夠完善的系統,黃偉倫和之前多位特斯拉車主一樣,太過於信任它,最終釀成了悲劇。

頭圖來源@unsplash

文|汽車之心(微信 ID:Auto-Bit),作者|陳念航,編輯|王德芙

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章