無人駕駛之KITTI數據集介紹與應用——數據組織方式介紹

KITTI數據集是由德國卡爾斯魯厄理工學院和豐田美國技術研究院聯合創辦,利用組裝的設備齊全的採集車輛對實際交通場景進行數據採集獲得的公開數據集。該數據集包含豐富多樣的傳感器數據(有雙目相機、64線激光雷達、GPS/IMU組合導航定位系統,基本滿足對圖像、點雲和定位數據的需求)、大量的標定真值(包括檢測2D和3D包圍框、跟蹤軌跡tracklet)和官方提供的一些開發工具等。

1. 採集平臺介紹
此部分主要參考KITTI官網setup部分內容。

如圖1所示,KITTI數據集所採用的採集車爲經過改裝過的大衆帕薩特B6,使用8核i7計算機,運行在Ubuntu系統下進行數據錄製,採集平臺包含如下傳感器:

1個慣性導航系統(GPS/IMU):OXTS RT 3003
1個激光掃描儀:Velodyne HDL-64E
2個灰度相機,140萬像素:Point Grey Flea 2(FL2-14S3M-C)
2個彩色相機,140萬像素:Point Grey Flea 2(FL2-14S3C-C)
4個變焦鏡頭,4-8mm:Edmund Optics NT59-917
激光雷達掃描頻率爲10幀/s,相機基本上和地平面保持水平,圖像採集尺寸被裁減爲1382x512像素,在經過校正後,圖像可能會進一步變小,相機的採集頻率也保持在10HZ並且在激光雷達朝向正前方時釋放快門,傳感器的整體佈置圖如圖2所示。

                                                               圖1 KITTI數據集採集平臺

 

                                                                             圖2 傳感器佈置俯視圖


從圖1和圖2中可以看到不同傳感器的座標系定義(上下左右以駕駛員爲基準):
相機:x軸——向右,y軸——向下,z軸——向前;
激光雷達:x軸——向前,y軸——向左,z軸——向上;
組合導航:同激光雷達。
注: 此處座標系的定義對後續數據的可視化和分析,以及標定矩陣的理解和使用至關重要,需要熟悉。

2. 數據組織方式
此部分主要參考KITTI官方發表的論文:
1、Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite
2、Vision meets Robotics: The KITTI Dataset
建議想對KITTI數據有深入瞭解或者想從宏觀上了解整個無人駕駛系統的硬件構成的讀者可以認真閱讀一下這兩篇論文。

KITTI數據集針對不同的用途,將數據集分爲如下部分:stereo、flow、sceneflow、depth、odometry、object、tracking、road、semantics和raw data,不同部分的數據包含不同的人爲標註的真值數據,但其實針對不同用途的數據也基本上是從raw data數據中分離出來的,爲此主要介紹raw data中數據的組織方式,此外也介紹一下object和tracking數據的組織方式。

2.1 raw data組織方式
raw data數據集按照類別被分爲Road、City、Residential、Campus和Person。如圖3所示,對於每一個序列,都提供了傳感器原始數據,相機視野範圍內的目標3D包圍盒tracklets文件和一個傳感器標定文件,


                                                             圖3 raw data數據文件組織結構圖


其中"date"和"drive"是佔位符,根據當時採集的日期命名,"image_0x"指的是4個相機序列。

所有數據都是同步採集的,按照激光雷達的頻率(10hz)採集,所有傳感器的數據序列都是以image_00作爲同步參考系。
包括:

原始的(沒有同步和沒有矯正的)和處理過的(同步和矯正過)的雙目灰度圖像序列(50萬像素、png格式)
原始的(沒有同步和沒有矯正的)和處理過的(同步和矯正過)的雙目彩色圖像序列(50萬像素、png格式)
3D激光雷達數據(每幀10萬+個點,.bin格式float矩陣存儲)
標定文件(相機與相機之間、相機與GPS/IMU之間、相機與激光雷達之間,txt文本文件存儲)
3D目標跟蹤標籤(汽車、卡車、火車、行人、自行車人,xml文件)
此處的非同步和非矯正的含義是指原始的帶有畸變並且沒有同步的數據,而同步和矯正的圖片是指經過消除畸變並經過雙目矯正的圖片,並且圖片序列也是和其他傳感器對應好的。所有的數據都提供時間戳。一般我們用的是同步和矯正的數據(synced+rectified data)。

例如我們下載2011_09_26_drive_0005這個數據序列,最終解壓得到的文件夾如下圖所示:

在這裏插入圖片描述

image_00:左側灰度相機圖像序列
image_01:右側灰度相機圖像序列
image_02:左側彩色相機圖像序列
image_03:右側彩色相機圖像序列
oxts:GPS/IMU位姿相關信息序列
velodyne_points:激光雷達數據序列

2.2 object數據組織方式
object數據集主要用於驗證無人駕駛中有關目標檢測算法而設置的數據集,該數據集包含“2D Object Detection”、“3D Object Detection”和“Bird’s Eye View”三部分數據,分別用於驗證2D圖像檢測框、3D圖像或者激光雷達包圍盒和鳥瞰圖檢測算法的優劣。
該部分數據可以針對你所開發檢測算法的具體需求,選擇下載圖像或者雷達等數據,每個數據下載解壓之後都包含training和testing兩個文件夾,分別用於檢測算法中作爲訓練數據和測試數據,其中訓練數據包含有標註文件。需要注意的是對於object數據集,其數據並不是嚴格連續採集的數據,即都是單幀結果,只用於檢測算法使用。

2.3 tracking數據組織方式
tracking數據集主要用於驗證無人駕駛中有關目標跟蹤算法而設置的數據集,其數據組織方式與object數據集類似,最大的區別在於tracking數據集每個數據序列是連續的。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章