RGB-D dataset

      2012年ACCV《Model Based Training, Detection and Pose Estimation of Texture-Less 3D Objects in Heavily Cluttered Scenes 》公佈了一個數據庫,該數據庫可用於Pose tracking方面的測試。這篇博客主要介紹一下這個數據庫,以及使用該數據庫時的注意事項。

      數據庫下載地址:http://campar.in.tum.de/Main/StefanHinterstoisser

      該數據庫包含了15個texture-less不同物體的RGB圖像、每幅圖像的深度信息以及對應的3D Ground truth姿態,每個物體超過1000幅圖像。打開每個物體的壓縮包,我們會發現以下文件:



[1] 文件夾data  該文件夾包含物體的RGB-D圖像,深度數據(如depth0.dpt),平移姿態參數(如tra0.tra),旋轉姿態參數(如rot0.rot) 4種類型的數據;

[2] mesh.ply  該文件存儲的物體的3D模型,可以通過Blender軟件打開,關於3D模型.ply文件的格式可以參考以下鏈接http://zh.wikipedia.org/wiki/PLY

[3] object.xyz 該文件內存儲的物體的3D點雲,是一個比較粗糙的3D模型;

[4] Oldmesh.ply  該文件內也是保存的物體的3D模型,該文件與mesh.ply有些不同,其3D點的座標以及法向量是對應攝像機座標系的,而mesh.ply是對應世界座標系(物體座標系)的。

      我們在使用這個數據庫時,應該注意以下幾點:

1. Ground truth pose parameters 是對應mesh.ply文件中的3D模型的,而不是Oldmesh.ply的;當然,也對應object.xyz內的3D點雲。

在使用Ground truth pose parameters時,應該注意的是,平移姿態參數的單位,文件中tra*.tra的數值單位是cm,而mesh.ply中點的座標單位是mm,因此,應該首先將平移姿態參數數值乘以10(cm->mm)。旋轉矩陣沒有單位,所以不用考慮。以ape數據第一幀投影爲例,投影之後的結果:



2. 深度數據文件depth*.dpt,作者提供了讀這種文件的函數,函數中沒有使用opencv較新的版本,可以考慮將IplImage類改成Mat類,鏈接http://campar.in.tum.de/personal/hinterst/index/downloads!09384230443!/loadDepth.txt。文件中的數據單位爲mm,可以統一縮放至[0,255],便於可視化。

3. 經過實驗發現,mesh.ply+GT pose,投影之後得到的物體輪廓並不完全與物體重合,有較小的偏差,這是由於作者在標Ground Truth時採用的KinectFusion方法,該方法計算姿態參數存在不精確性。

4. 作者提供的txt文件中明確指出,RGB圖像與深度數據已經配準了,不需要再進行此操作。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章