原创 Failed to load nodelet ‘/kinect2_bridge` of type `kinect2_bridge/kinect2_bridge_nodelet` to manager

之前在我的電腦上配置了libfreenect2和iai_kinect2,現在需要在工控機上重新安裝這兩個庫,講kinectV2相機安置在嬰兒車上,然後使用我的ros下獲取kinectV2相機的彩色圖和灰度圖的腳本,獲取深度圖和彩色圖。 我

原创 ROS下獲取kinectv2相機的仿照TUM數據集格式的彩色圖和深度圖

準備工作: 1. ubuntu16.04上安裝iai-kinect2, 2. 運行roslaunch kinect2_bridge kinect2_bridge.launch, 3. 運行 rosrun save_rgbd_from_ki

原创 ROS獲取KinectV2相機的彩色圖和深度圖並製作bundlefusion需要的數據集

背景: 最近在研究BundleFusion,跑通官方數據集後,就想着製作自己的數據集來運行bundlefusion.KinectV2相機可直接獲取的圖像的分辨率分爲三個HD 1920x1080, QHD: 960X540,SD: 512x

原创 使用iai_kinect2標定kinectV2相機

實驗背景:因爲需要製作bundlefusion需要的數據集,所以需要使用kinectV2相機獲取rgbd圖像,年前的時候在我的筆記本上安裝了libfreenect2庫和iai_kinect2,標定過一次kinecv2相機,然後使用kine

原创 python將ros下bag文件的所有topic解析爲csv格式

背景:最近在製作kimera的數據集,尤其是運行semantic模塊所需要的bag文件中有很多topic,但是很多不知道topic中裝的是什麼數據,及其格式,所以我就想着怎麼可以將bag中的topic都解析數來,這樣就能知道bag中都有啥

原创 python之moviepy庫的安裝與使用

目的:因爲需要保存一個大大的.mp4視頻,以防過程中設備出現異常導致整個長長的視頻無法正常保存,所以採用分段保存視頻的方式,每500幀保存一段,然後再將視頻合到一起.最近剛開始學習python,發現python真的很好用,所以這次就使用p

原创 雙目相機去畸變和極線平行操作

class StereoMatch { public: StereoMatch(void); virtual ~StereoMatch(void); int init(int imgWidth, int img

原创 製作.sens數據集跑通bundlefusion

1. 主要參考這篇博客實現 https://blog.csdn.net/Wuzebiao2016/article/details/94426905 2. 首先就是將自己採集的RGBD圖像的保存格式向Bundlefusion需要的格式對齊,

原创 使用ros發佈UVC相機和串口IMU數據

1.目的:爲了可以標定普通USB相機和固定在相機上的外置IMU的外參,我希望通過ROS獲取更高分辨率和更高頻率的圖像數據,並且可以將圖像和imu的topic發佈出來,直接使用rosbag record錄製話題數據,寫入bag文件,這樣獲得

原创 mynt product model: D1000-IR-120標定相機和IMU外參之二

1. 在之一中使用kalibr標定mynt相機和內置imu的外參數,使用的是720p,30fps的雙目圖像和200hz的imu數據,標定結果誤差比較大,這一次我們改用480p,60hz的雙目圖像和200hz的imu數據進行標定,需要在my

原创 mynt product model: D1000-IR-120標定相機和IMU外參

1. 首先是安裝相應的mynt SDK. http://www.myntai.com/mynteye/depth小覓官網,在sdk下拉菜單中點擊MYNT EYE Depth SDK,然後選擇Linux Installation 安裝安裝步

原创 VI-ORB環境配置

參考博客:https://blog.csdn.net/qq_38589460/article/details/82559816 https://blog.csdn.net/Robot_Starscream/article/details/

原创 slam 常用數據集的幀率

1. kitti數據集的幀率約約爲10fps,圖像分辨率爲1241x376 2. Euroc數據集的幀率約爲20fps,圖像分辨率爲752x480 3.TUM數據集的幀率約爲30fps, 圖像分辨率爲640x360   zed相機獲取的H

原创 MIT Kimera閱讀筆記

這兩天在調研SLAM的最新算法,找到了2019CVPR上的一篇文章,出自於MIT,因爲要給其他同事講解,所以就把文章的重點內容在我個人理解的情況下翻譯了出來,有理解不到位的還請各位大佬多多批評指正。 最後附上了Delaunay Trian

原创 研究相機和IMU座標系變換

剛開始錄製的數據時沒有考慮相機和IMU之間的座標變換,但是後來發現跟蹤效果不好,去查驗imu數據時,發現,我採集保存的imu數據格式沒有和euroc數據集中的imu數據保存格式統一,所以需要研究的是在euroc用於數據採集的設備中的相機和