kinect v2詳細參數和原理介紹_別人論文裏和自己整理出來的一些內容

轉載:https://blog.csdn.net/hehedadaq/article/details/80557926


參考文獻:

Fankhauser P, Bloesch M, Rodriguez D, et al. Kinect v2 for mobile robot navigation: Evaluation and modeling[C]//Advanced Robotics (ICAR), 2015 International Conference on. IEEE, 2015: 388-394.

嗯,英文論文真是一個好東西,百度到中文的資料真是太缺乏了~

1、Kinect v2和Kinect v1的性能表對比:


其中Kinect v2 的rgb視場(FOV)是84.1 x 53.8。

並且關於FOV的建模和模型可以參考下面的鏈接:

http://www.smeenk.com/webgl/kinectfovexplorer.html

2、Kinect v2的詳細結構參數圖:



這個0.8cm不是很清楚到底是啥~


其實關於這個22mm,真的很重要,博主之前檢測相機深度值是否準確的時候,總是會差一兩釐米,也不好測出相機主點到外殼的距離,所以很是頭大,上面論文的作者就比較厲害了,他們把相機拆開,真的是測出來了。。。。

3、接下來說一下深度值的問題:

我用過奧比中光的相機和kinect 2,基本上拿到的深度值,都是點到相機平面的距離,而不是點到傳感器的直線距離,我就不太清楚這到底是怎麼回事兒?之間經歷過什麼樣的計算嗎?

在中文網站上的這篇博客,我看到了這樣的描述:

深度值和三維數據

在介紹基於深度相機的三維重建技術之前,首先需要了解深度圖像中的數據的具體含義。對於現實場景中的點,深度相機掃描得到的每一幀數據不僅包括了場景中的點的彩色RGB圖像,還包括每個點到深度相機所在的垂直平面的距離值。這個距離值被稱爲深度值(depth),這些深度值共同組成了這一幀的深度圖像(圖1右)。也就是說,深度圖像可以看做是一副灰度圖像,其中圖像中每個點的灰度值代表了這個點的深度值,即該點在現實中的位置到相機所在垂直平面的真實距離。圖2簡單說明了RGB圖像和深度圖像的關係。

只是它沒有講原因,我第一次拿到相機的時候,不是很理解,感覺應該depth是點到傳感器的直線距離,但是後來,通過測試,發現應該確實是點到相機平面的距離。

期待大佬講解其中轉化的原理~


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章