深度解析蔚來ET7自動駕駛技術

我個人是個汽車迷,每天都會看大量汽車相關的信息,最近蔚來發布了ET7這款車,看宣傳是有機會實現L4自動駕駛,有不瞭解自動駕駛技術的同學可以看下以下信息:

 

除了傳統的依靠視覺模型做自動駕駛的實現以外,本次蔚來ET7也搭載了Aquila超感系統。也就是說ET7是包含了:視覺自動駕駛技術+雷達波自動駕駛技術。接下來分別聊下ET7在這兩方面技術的一些功能點。

視覺自動駕駛技術

 

ET7搭載了4顆NVDIA Drive Orin芯片以及800萬像素的攝像頭,這兩個硬件設備是視覺自動駕駛技術實現的根本。先來說下芯片,這款芯片是專業的車載芯片。

ORin芯片可以支持基於Cuda和TensorRT做深度學習模型的服務,TensorRT是一個模型服務的框架,可以支持各種框架產生的模型。

 

ET7每秒鐘可以產生8GB的視頻,而視覺自動駕駛技術,其實就是一個物體識別模型實時inference的流程,需要保持每秒鐘超過10個以上的圖片識別請求效率。所以視覺自動駕駛的實現前提是強大的芯片計算力。Orin芯片是這個計算力的保證。

 

另外我個人的一個猜想,其實在汽車駕駛過程中Orin芯片可以被用來做實時的圖片識別,當汽車不運行的時候,比如汽車充電的時候,這些計算力也可以用來做模型的更新,利用遷移學習技術對本車產生的一些新的數據做模型的fine-tune,不過如何保證這些fine-tune的模型準確率是個問題。短時間內,我猜測,汽車芯片還是主要負責inference,不會參與訓練。

 

雷達波自動駕駛技術

 

雷達波自動駕駛技術是對視覺自動駕駛技術的補充。NIO Aquila蔚來超感系統將定義量產車自動駕駛感知系統的全新標準,該系統擁有33個高性能感知硬件。11個800萬像素的高清攝像頭,4個前向,3個後向,4個環視;1個超遠距高精度激光雷達,5個毫米波雷達;12個超聲波傳感器,兩個高精度定位單元,以及車路協同感知和增強主駕感知。

屏幕快照 2021-01-11 下午8.27.31.png

在一些雷雨天氣,攝像頭可能被雨點弄模糊,或者在一些強光環境下,攝像頭無法正確捕捉畫面,這個時候通過激光雷達波的方式可以輔助識別前方障礙物。下圖是雷達波反饋的一個前方障礙物效果圖,基本也能構建出前方的事物。

屏幕快照 2021-01-11 下午8.06.19.png

 

Aquila雷達波系統是由一家中國供應商Innovusion提供,該供應商也接受了來自蔚來的投資。目前Innovusion主要提供L3以上的自動駕駛輔助功能。

 

激光雷達本身的原理非常簡單,像激光筆一樣打到邊上屏幕上,發過去再回來。但是自動駕駛難就難在要在自然的場景下,在自然光的條件下,有時候還有陽光,各種雨霧天氣情況下打這個激光筆的光點,而且光電會打到各種不同特性的物體表面。如果打在會場後面,大家可以看到光點大很多了。如果在外面陽光下,用這個激光筆打的光點幾乎是看不到的。在自然環境下保守估計有5%-10%的機率激光雷達系統會接收不到從物體返回的信號。

屏幕快照 2021-01-12 下午7.42.31.png

比如在50米以外,一米高的小孩要十個點以上(纔能有效感知),需要激光雷達的傳感器分辨率至少達到0.2度左右。另外高速路上的行駛,大家公認比較保守的停車、剎車距離大約是150米左右,這麼遠距離以外,汽車比人更不可控制,也許有一些車本身擦得很亮,顏色非常深,這時候一個車上需要有15-20個點左右。同樣推算,激光雷達的分辨率也需要0.2度左右。一個駕駛場景考慮到縱向有坡度等不同變化條件下,大家可能希望有大約20-30度左右的視角。30除以0.2度,所以大家希望激光雷達達到的線數是150線左右,這是L4級自動駕駛的最低線數。

 

總結一下

 

目前來看,蔚來在自動駕駛方面準備走雷達波結合視覺識別的方式,對比特斯拉只採用視覺識別的模式,蔚來的方案顯然保證性更高。在視覺識別方面,未來技術發展路線一定是通過更多地訓練樣本提升模型準確率。在雷達波技術演進方面,未來很有可能採取更多線的雷達波方案,增加輻射面積。

 

蔚來這輛車我愛了,希望國產車越來越牛~

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章