總項目一直編譯失敗,實在沒有辦法了,只能一個一個項目的編譯。沒想到一個一個編譯還真的好使。
趕快運行了兩個項目。完美,完美。
1. 使用的安裝過程如下: 先裝下這下面幾個依賴 sudo apt-get update sudo apt-get install -y python-wstool python-rosdep ninja-build 1. carto
g2o安裝和使用 安裝依賴 sudo apt-get install libeigen3-dev libsuitesparse-dev qtdeclarative5-dev qt5-qmake 下載源碼 git clone https
1. 第三講(上)_基於優化的IMU與視覺信息融合(上) 第三講(上): (1)最小二乘問題的求解推導 (2)其中有LM算法的相關推導以及魯棒核函數的推導 1.1. 最小二乘與非線性優化 1.1.1. 最小二乘
1. 四元數的基本運算 主要運算 四元數乘法 乘法性質 滿足結合律 不滿足交換律 乘積的模等於模的乘積 乘積的逆等於各個四元數的逆以相反的順序相乘 其他運算 *四元數部分參考:旋轉矩陣、歐拉角、四元數理論
首先,根據不同的雷達,瞭解雷達發佈的點雲消息。(IMU也是一樣,瞭解IMU發佈的點雲topic)。 本文使用的是Robosense 16線激光雷達,暫時未使用IMU(建議6軸,再加上GPS定位精度會高很多)發佈PointCloud2類型的
官網安裝教程:https://google-cartographer-ros.readthedocs.io/en/latest/compilation.html 不過由於網絡問題,可能在下載的時候會下載中斷。我會上傳我自己下載的到資源處,
ICP算法是點雲配准算法,給出兩組點雲,可以計算出兩組點雲的位姿關係R、t。問題數學表達爲: 已知兩組點雲: 求R、t使
VSLAM方法框架: 整個SLAM大概可以分爲前端和後端 ,前端相當於VO(視覺里程計),研究幀與幀之間變換關係。首先提取每幀圖像特徵點,利用相鄰幀圖像,進行特徵點匹配,然後利用RANSAC去除大噪聲,然後進行匹配,得到一個pose信息(
PnP是一類問題的統稱,是指通過多對點的3D位置及2D投影座標,來估計相機位姿R、t。 場景一:視覺slam中在初始化後可以知道空間中一些點在世界座標系下的座標,在下一幀圖像進行特徵點匹配後,利用這些特徵點的3D座標及2D像素座標,PnP
本質矩陣描述了相機內參已知的情況下同一個點不同視角下的關係,5自由度。即已知同一個點在兩幀圖像下的座標,兩個座標、相機內參、本質矩陣滿足對極約束條件(1-1)。 基礎矩陣描述了同一個點在不同視角下的關係,7自由度。 單應矩陣描述了同一平面
爲什麼引入李羣與李代數? SLAM中對矩陣求導數的應用場景?什麼情況下用到李代數左乘擾動模型求導數? 爲什麼不能用李羣求導? 李羣與李代數的關係? 李代數左乘擾動的理解? 0 爲什麼引入李羣與李代數? slam中後端優化需要用到求解最小二
(1)構建圖像高斯金字塔 將圖像進行降採樣8次,每次尺度縮小1/1.2,如下圖所示: 採用高斯金字塔的目的是解決特徵點尺度不變性,並且可以提取更多的關鍵點。高斯金字塔每個尺度代表了不同的距離,即低分辨率的圖像可以看做從遠處拍攝圖像的一部
對極幾何在ORBSLAM初始化過程中求解兩幀的R、t,輸入兩幀圖像的多對匹配點,對極幾何計算得到R、t 三角測量在單目ORBslam初始化過程中計算初始化點雲的3D座標,輸入兩幀的R、t+匹配特徵點的像素座標,輸出點的3D座標 1 對極幾
BA優化時間跟特徵點數量有關,特徵點數量越多BA消耗時間越長。折衷做法是,在進行幾次優化後,將特徵點位置固定,不再優化特徵點,只優化相機位姿。位姿圖優化是一中方法。場景如下:
ORB特徵 = Fast+描述子,Fast判斷該點是不是特徵點,描述子計算該特徵點的方向信息。 1 Fast角點 (1)Fast規則 如下圖,遍歷每個像素點,檢測在像素點附近的圓形窗口上的16個像素的灰度,如果有n個連續點都比中心像素的灰