視覺slam14講之slam概況

      slam是simultaneous localization and mapping 的縮寫,中文譯爲“同時定位與構圖”。由其名就可以知道,主要有2個功能,一個是自我定位,一個是構圖。其中就要使用到特定的傳感器,在未知的環境下,對自己定位。在運動中建立起環境的模型,途中更要估計自己的運動,如果這裏的傳感器主要是相機,這裏則稱爲“視覺SLAM”
     計算機視覺(Computer Vision)創立之初,人們就希望計算機能像人一樣,通過眼睛去觀察世界,理解周遭的物體,探索未知的領域。然而對計算機而言,所有的物體構建,只是由一個個數字排列的矩陣構成。
之前的研究一直在摸索階段,直到今天才有一點點成功的跡象,通過人工智能(Artificial Intelligence)和機器學習(MachineLearning)技術, 計算機漸漸能識別物體,人臉,聲音,文字——儘管它所用的方式(概率 學建模)。現在已經可以做到快速跟蹤自身位置,有的甚至能夠進行實時的三維重建。
      以前處於興趣研究,目前已經出現大批與slam相關的應用點,例如: 室內的掃地機和移動機器人需要定位,野外的自動駕駛汽車需要定位,空中無人機需要定位,虛擬現實和增強現實的設備也需要定位。21世紀以來,以視覺傳感器爲中心的視覺slam技術,在理論和實踐已經出現明顯的好轉,泡泡機器人等就使用到這些功能。
說了這麼多,終究落實到實踐中,需要代碼實現。只有真正實現代碼,調試各個參數纔算理解問題本身。slam系統分爲幾個模塊:視覺里程計,後端優化,建圖,以及迴環檢測。而我們主要學習的就是這4個模塊的核心部分。
參考:SALM 視覺14講

發佈了63 篇原創文章 · 獲贊 15 · 訪問量 7萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章