視覺slam14講之相機模型

1. 單目相機模型

    a. 首先, 世界座標系下有一個固定的點P,世界座標爲Pw。
    b. 由於相機在運動,它的運動由R,t或變換矩陣T描述。P的相機座標爲P’ = R*Pw + t。
    c. 這時的P’仍有X, Y, Z三個量,把他們投影到歸一化平面Z=1上,得到P的歸一化相機座標:Pc = [X/Z,Y/Z, 1]T.
    d. 最後,P的歸一化座標經過內參後,對應到它的像素座標:Puv = KPc。
其中共談到了4種座標:世界座標,相機座標,歸一化相機座標和像素座標。

2. 雙目相機模型

      明顯上述有缺陷, 僅根據一個像素,我們是無法確定這個空間點的具體位置的,因爲從相機光心到歸一化平面連線上的所有點,都可以投影至該像素上。這時我們需要它的深度,正如人眼通過視差來判斷物體與我們之間的距離,雙目相機一樣如此。
這裏寫圖片描述
      這個就是雙目相機的幾何模型,Ol,Or是兩個相機。Pl, Pr是成像點,P點是物體。由上圖可得出以下公式:
z-f : z = (b - uL + uR) :b
稍加整理:
z = fb/d d = uL - uR
這裏,d爲左右圖的橫座標之差,稱爲視差。 根據視差,我們可以估計一個像素與相機之間的距離。視差與距離成反比。由於視差最小爲一個像素,於是雙目的深度存在一個理論的最大值,由fb確定。事實上,視差公式推導簡單,但視差d的計算對與計算機來說卻比較困難。使用到GPU或FPGA來計算

3.RGB-D(深度)相機模型

目前根據原理分爲兩類:

    a. 通過紅外結構光( Structured Light )來測量像素距離。例:Kinect 1代,Project Tango 1代,Inter RealSense等。由光結構的偏移計算
    b. 通過飛行時間法( Time-of-flight,TOF )原理測量像素距離。例:Kinect 2代和一些現有的ToF傳感器等。類似激光傳感器,不過激光傳感器是通過逐點掃描來獲取距離,而ToF相機則可以獲得整個圖像的像素深度。
    c . RGB-D相機自己完成深度與彩色圖像素之間的匹配,輸出一一對應的彩色圖和深度圖。我們可以在同一圖像位置,讀取到色彩信息和距離信息,計算像素的3D相機座標,生成點雲( Point Cloud )。

發佈了63 篇原創文章 · 獲贊 15 · 訪問量 7萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章