三維視覺、SLAM方向全球頂尖實驗室彙總

本文作者 任旭倩,公衆號:計算機視覺life,編輯成員

歐洲

英國倫敦大學帝國理工學院 Dyson 機器人實驗室

http://www.imperial.ac.uk/dyson-robotics-lab

簡介:

倫敦帝國理工學院戴森機器人實驗室成立於2014年,由Andrew Davison.教授領導。是戴森公司和帝國理工學院領導機器人視覺小組Andrew Davison教授的合作實驗室,Andrew Davison是視覺SLAM領域的先驅,戴森提供大量的資金和支持,以建立一個機器人專家團隊,他們合作產品包括Dyson 360 eye™vaccum清潔機器人。該實驗室的重點是開發計算機視覺程序,使機器人能夠超越受控環境,成功地導航並與現實世界互動。

實驗室主要成就(http://www.imperial.ac.uk/dyson-robotics-lab/projects/):

ElasticFusion

一個實時的稠密的視覺SLAM系統,可以利用RGB-D相機來對房間進行全局一致的三維稠密重建。

代碼地址:https://bitbucket.org/dysonroboticslab/elasticfusionpublic/src/master/

1560072844162.png

CodeSLAM

一種生成室內場景軌跡的大規模照片級真實渲染的系統。

1560072443727.png

SceneNet RGB-D

一種生成室內場景軌跡的大規模照片級真實渲染的系統。

代碼地址:https://bitbucket.org/dysonroboticslab/scenenetrgb-d/src/master/

數據集地址:https://robotvault.bitbucket.io/scenenet-rgbd.html

1560073201935

SemanticFusion

一種實時可視SLAM系統,能夠使用卷積神經網絡在語義上註釋密集的3D場景。

代碼地址:https://bitbucket.org/dysonroboticslab/semanticfusion/src/master/

1560073424912


英國牛津大學Active Vision Laboratory

http://www.robots.ox.ac.uk/ActiveVision/index.html

簡介:Active Vision實驗室主攻計算視覺,特別是傳統和深度圖像的3D場景重建。實驗室致力於定位和建圖,可穿戴和輔助計算,語義視覺,增強現實,人體運動分析和導航的應用程序。

實驗室主要成果(http://www.robots.ox.ac.uk/ActiveVision/Research/index.html)

使用3D物體形狀Priors進行密集重建

PTAM

(並行跟蹤和建圖)用於增強現實的相機跟蹤系統

源碼地址:https://github.com/Oxford-PTAM/PTAM-GPL

1560089307113


英國牛津大學 Torr Vision Group

http://www.robots.ox.ac.uk/~tvg/

簡介:牛津大學工程科學系Torr Vision Group(前身爲布魯克斯視覺集團,牛津布魯克斯大學)成立於2005年,後來於2013年移居牛津大學,由Philip Torr教授領導。它包括大約20-25人。該小組的目的是參與最先進的計算機視覺和人工智能數學理論研究,但要保持數學研究與社會需求相關。該小組的一個特別重點是用移動相機進行實時重建環境,例如無人機,智能眼鏡或其他機器人。

實驗室主要成果(http://www.robots.ox.ac.uk/~tvg/projects.php)

交互式實時3D場景分割的框架

創建了一個只需使用廉價的硬件,就可以在半小時內捕獲並重建整個房屋或實驗室的建圖系統。

源碼地址:https://github.com/torrvision/spaint/tree/collaborative

1560162825641


基於立體視覺的城市三維語義建模

可以生成具有相關語義標記的高效且準確的密集三維重建地圖。

1560163026017


蘇黎世聯邦理工學院的Autonomous System Lab

http://www.asl.ethz.ch/

簡介:

由Roland Siegwart教授領導,Autonomous System Lab於1996年在洛桑聯邦理工學院成立,它是機器人和智能系統研究所(IRIS)的一部分

實驗室旨在創造能夠在複雜多樣的環境中自主運行的機器人和智能系統。設計機電和控制系統,使機器人可以自主適應不同的情況,並應對不確定和動態的日常環境。機器人可以在地面,空中和水中運動,同時具備在複雜環境下自主導航的功能,研究出了包括用於感知,抽象,建圖和路徑規劃的方法和工具。他們還在tango項目上與谷歌合作,負責視覺慣導的里程計,基於視覺的定位和深度重建算法。

實驗室主要成就:(https://asl.ethz.ch/publications-and-sources/open-source-software.html)

libpointmatcher

libpointmatcher是一個模塊化庫,它實現了迭代最近點(ICP)算法,用於配準點雲。

代碼地址:https://github.com/ethz-asl/libpointmatcher

1560074706854

libnabo

用於低維空間的快速K最近鄰庫

代碼地址:https://github.com/ethz-asl/libnabo

ethzasl_sensor_fusion

基於EKF的時延補償單傳感器和多傳感器融合框架

代碼地址:https://github.com/ethz-asl/ethzasl_sensor_fusion

1560074518534

ethzasl_ptam

用於單目SLAM的框架PTAM

代碼地址:https://github.com/ethz-asl/ethzasl_ptam

1560074913412


蘇黎世Robotics and Perception Group

http://rpg.ifi.uzh.ch/

簡介:該實驗室由Davide Scaramuzza教授領導,成立於2012年2月,是蘇黎世大學信息學系和神經信息學研究所的一部分,該研究所是蘇黎世大學和蘇黎世聯邦理工學院的聯合研究所。實驗室開發智能機器人,只使用車載攝像頭即可自行導航,而無需依賴外部基礎設施,如GPS或動作捕捉系統。 研究包括地面和微型飛行機器人,以及由這兩者組合而成的多機器人異構系統。

實驗室主要成果(http://rpg.ifi.uzh.ch/software_datasets.html)

視覺(慣性)里程計軌跡定量評估方法

通過視覺( 慣性)里程計(VO / VIO)定量評估估計軌跡的質量

源碼地址:https://github.com/uzh-rpg/rpg_trajectory_evaluation

1560157882807

基於高效數據的分佈式視覺SLAM

該算法可實現使用便宜,輕便和多功能的相機進行分佈式通信多機器人建圖

源碼地址:https://github.com/uzh-rpg/dslam_open

1560158542705


慕尼黑工業大學的The Computer Vision Group

https://vision.in.tum.de/research

簡介:主要研究算機視覺,圖像處理和模式識別等一系列方向,即基於圖像的3D重建,光流估計,機器人視覺,視覺SLAM等。

實驗室主要成果(https://vision.in.tum.de/research)

dvo_slam

提供了來自連續圖像的RGB-D相機的剛體運動估計的實現方案。

代碼地址:https://github.com/tum-vision/dvo_slam

1560077373792

LSD-SLAM: Large-Scale Direct Monocular SLAM

一種直接單目SLAM建圖技術

代碼地址:https://github.com/tum-vision/lsd_slam

1560077301813

DSO: Direct Sparse Odometry

DSO是一種用於視覺里程計的新的直接稀疏建圖方法。

代碼地址:https://github.com/JakobEngel/dso

1560077617256

Basalt: Visual-Inertial Mapping with Non-Linear Factor Recovery:

使用非線性因子恢復法從視覺 - 慣性里程計提取信息來進行視覺 - 慣性建圖。

代碼地址:https://gitlab.com/VladyslavUsenko/basalt

1560078172895


德國弗萊堡大學Autonomous Intelligent Systems

http://ais.informatik.uni-freiburg.de/index_en.php

簡介:研究主要集中在自主移動機器人,即能夠在其環境中自主移動並完成不同任務,如多機器人導航和協作,環境建模和狀態估計。

實驗室主要成果(http://ais.informatik.uni-freiburg.de/projects/index_en.php)

GMapping:

Gmapping是基於Bpf粒子濾波算法的濾波SLAM框架。

源碼地址:https://github.com/OpenSLAM-org/openslam_gmapping

1560095295244

RGBD SLAM2

是一個非常全面優秀的系統,將SLAM領域的圖像特徵、優化、閉環檢測、點雲、octomap等技術融爲一體,非常適合RGBD SLAM初學者,也可以在其基礎上繼續開發

源碼地址:https://github.com/felixendres/rgbdslam_v2

1560160825684


西班牙薩拉戈薩大學RoPeRT機器人,感知和實時組SLAM實驗室

http://robots.unizar.es/slamlab/

簡介:由JuanD.Tardós教授帶領,研究同時定位和建圖(SLAM)、Visual SLAM:單目,雙目,RGB-D
語義SLAM,SLAM與對象、非剛性SLAM等方向,主要應用在機器人,增強現實,醫學等。

實驗室主要成果(http://robots.unizar.es/slamlab/?extra=1)

大規模環境中協同傳感器的主動SLAM(nSPLAM)

該項目的目標是擴展SLAM算法在關鍵開放問題中的數學理解,增強實用性和適用性,包括大規模(高達數千米)/長期(數天,數週的操作)建圖,主動SLAM(不確定性下的規劃和探索),全局一致的傳感器協作/多車輛SLAM和高級地圖表示。

[外鏈圖片轉存失敗(img-tNzL7Ta0-1562161442212)(http://robots.unizar.es/wp/wp-content/uploads/projects/nsplam_project.jpg)]

剛性和非剛性場景的語義可視化建圖(SVMap)

提出了一個基於對象的實時SLAM系統,設計單目SLAM算法利用對象剛度約束來改進地圖並找到其真實尺度。

1560155058186


美洲

明尼蘇達大學的Multiple Autonomous Robotic Systems Laboratory(MARS)

http://mars.cs.umn.edu/

簡介:多自主機器人系統(MARS)實驗室的目標是促進機器人和計算機視覺的基礎研究和教育,特別強調自主地面,航空和太空探索車輛的估算和控制。研究內容是資源意識估計和控制,包括:

  • 視覺/激光輔助慣性導航系統(VINS,RGBD-INS,LINS)
  • 手機和可穿戴計算機上的大規模3D定位和建圖
  • 多機器人/傳感器定位,建圖和導航
  • 可重構傳感器網絡的主動傳感
  • 最佳信息選擇和融合
  • 移動操作
  • 人機協作

實驗室主要成果(http://mars.cs.umn.edu/research.php#research platforms)

使用滾動快門相機的視覺慣性導航系統(VINS):

提出了一種高精度VINS,它明確考慮並解釋了IMU相機系統的滾動快門和時間同步問題

1560075816973

協作建圖

當用戶的起始姿勢之間的轉換未知時,使用多個用戶在不同時間收集的數據集來解決協作建圖(CM)的問題

1560076007717

使用移動設備進行高精度,增量3D室內定位和建圖

使用來自商業級低成本傳感器的視覺和慣性數據,爲資源受限的移動設備(例如手機和平板電腦)提供增量批量最小二乘(IBLS)定位和建圖算法

1560076127759

半稠密地圖

該項目的目標是生成區域的半稠密3D地圖,正如先前的稀疏視覺 - 慣性批量最小二乘(BLS)協同建圖(CM)算法的相機姿態估計所給出的效果。

1560076317535.png


卡內基梅隆大學Robot Perception Lab

http://rpl.ri.cmu.edu/

簡介:機器人感知實驗室進行與自主移動機器人的定位,建圖和狀態估計相關的研究。該實驗室由Michael Kaess教授於2014年創立。該實驗室是卡內基梅隆大學機器人研究所一部分在,並同時屬於Field Robotics Center和Computer Vision Group。

實驗室主要研究成果(http://rpl.ri.cmu.edu/research/)

isam

增量平滑和建圖(iSAM),這是一種基於快速增量矩陣分解的同時定位和建圖問題方法,通過更新自然稀疏平滑信息矩陣的QR分解來實現。

源碼地址:https://github.com/ori-drs/isam

1560099431509

Articulated Robot Motion for Simultaneous Localization and Mapping (ARM-SLAM)

當機器人的關節角度不確定時,可以同時估計機器人的關節角度,並重建場景的稠密地圖。

1560100370548


斯坦福大學人工智能實驗室自動駕駛團隊

http://driving.stanford.edu/

簡介:實驗室致力於開發在不可預測的城市環境中自動駕駛的新算法和技術。在DARPA大挑戰和DARPA城市挑戰中取得成功以來,實驗室一直在爲自動駕駛中的重要問題創建和測試各種AI解決方案。利用機器學習,計算機視覺,概率傳感器融合和優化等技術,研究人員正在積極尋求語義場景理解,對象分割和跟蹤,傳感器校準,定位,車輛控制和路徑規劃方面的改進。

實驗室主要成果(http://driving.stanford.edu/papers.html)

使用概率圖的城市環境中的魯棒車輛定位

將環境建模爲概率網格來擴展以前使用GPS,IMU和LIDAR數據進行定位的工作,實現更高精度,可以隨着時間變化學習和改進地圖,以及對環境變化和動態障礙的穩健性。

1560159814313


麻省理工大學計算機科學與人工智能實驗室(CSAIL)海洋機器人組

https://marinerobotics.mit.edu/

簡介:團隊由John Leonard教授帶領,研究海洋機器人解決水下環境中定位和建圖問題,還在基於僅使用攝像頭(有時是IMU)在室內環境中以及戶外無人駕駛汽車等應用中執行Visual SLAM的工作。

實驗室主要成果(https://marinerobotics.mit.edu/research)

Kintinuous

Kintinuous解決了KinectFusion僅能對有限尺度的區域進行稠密建圖的限制,允許在數百米的範圍內繪製地圖。

源碼地址:https://github.com/mp3guy/Kintinuous

1560141789194


賓夕法尼亞大學機械工程與應用力學系Vijay Kumar實驗室

https://www.kumarrobotics.org/

Kumar組致力於創建自動地面和空中機器人,爲集體行爲和機器人羣體設計生物啓發算法等。

實驗室主要成果(https://www.kumarrobotics.org/past-projects/)

用於遠程自主探測和測繪的空中機器人

通過現場實驗探索在地震破壞的環境中利用自主四旋翼飛行器進行地面和空中機器人的協同建圖。

1560154880594


華盛頓大學UW Robotics and State Estimation Lab

http://rse-lab.cs.washington.edu/

簡介:RSE-Lab成立於2001年,關注機器人和識別中的問題,開發了豐富而高效的移動機器人導航,地圖構建,協作和操作中的感知和控制技術,還研究狀態估計和機器學習方法,用於對象識別和跟蹤,人體機器人交互和人類活動識別等領域。

實驗室主要成果(http://rse-lab.cs.washington.edu/projects/)

Semantic Mapping

該項目的目標是生成根據對象和位置描述環境的模型。 這些表示包含比傳統地圖更有用的信息,並使機器人能夠以更自然的方式與人類進行交互。

1560159613164

Active Mapping

通過添加機器人來改進任何幾何和語義場景重建技術:機器人可以選擇如何使用其傳感器來獲取新信息。 在主動視覺的情況下,機器人可以移動相機以觀察物體的所有側面。 使用主動視覺來完成地圖創建和對象分割問題。

1560159753992


哥倫比亞大學計算機視覺與機器人組

https://vision.cs.ubc.ca/

簡介:這是世界上最具影響力的視覺和機器人團體之一。這個小組創造了RoboCup和著名的的SIFT。這一組的學生贏得了大部分AAAI語義機器人挑戰賽。該小組有四名在職教師:Jim Little,Alan Mackworth,Ian Mitchell和Leonid Sigal。

實驗室主要成果(https://vision.cs.ubc.ca/publications/)

FLANN:

FLANN是用於在高維空間中執行快速近似最近鄰搜索的庫。它包含一系列我們發現最適合最近鄰搜索的算法,以及一個根據數據集自動選擇最佳算法和最佳參數的系統。

源碼地址:https://www.cs.ubc.ca/research/flann/uploads/FLANN/flann-1.8.4-src.zip

1560164269060

SIFT:

SIFT(尺度不變特徵變換)將圖像的每個局部片段轉換爲獨立於圖像比例和方向的座標。局部不變特徵允許我們在任意旋轉,縮放,亮度和對比度的變化以及其他變換下有效地匹配雜亂圖像的小部分。將圖像分成許多不同大小的小重疊片段,然後單獨匹配每個部分,並檢查匹配的一致性。

源碼地址:https://github.com/robwhess/opensift

1560164440725


加拿大謝布魯克大學IntRoLab(智能/互動/綜合/跨學科機器人實驗室)

https://introlab.3it.usherbrooke.ca/mediawiki-introlab/index.php/Main_Page

簡介:IntRoLab是一個研究實驗室,致力於研究,開發,集成和使用機電一體化和人工智能方法,設計自動和智能系統。研究活動涉及移動機器人,嵌入式系統和自主代理的軟件和硬件設計以及現場評估,旨在克服與在現實生活中使用機器人和智能系統以改善生活質量相關的挑戰,並且還研究如何使機器變得智能。應用領域包括服務機器人,全地形機器人,交互式機器人,輔助機器人,遠程醫療機器人,汽車和手術機器人。

實驗室主要成果(https://introlab.3it.usherbrooke.ca/mediawiki-introlab/index.php/Projects)

RTAB-Map

RTAB Map是RGBD SLAM的改進,減少了圖優化和閉環檢測中需要用到的結點數,保證實時性以及閉環檢測的準確性,能夠在超大場景中運行。

源碼地址:https://github.com/introlab/rtabmap

1560139866565


亞洲

香港科技大學的Aerial Robotics Group

http://uav.ust.hk/

簡介:開發基礎技術,使航空機器人(或無人機,無人機等)能夠在複雜環境中自主運行。研究涵蓋了整個航空機器人系統,重點關注狀態估計,繪圖,軌跡規劃,多機器人協調以及使用低成本傳感和計算組件的測試平臺開發。實驗室主要成果(http://uav.ust.hk/publications/)

VINS-Mono

一種魯棒且通用的實時單目視覺慣性狀態估計框架。

1560079640254

VINS-Fusion

VINS-Fusion是一種基於優化的多傳感器狀態框架,可實現自主應用(無人機,汽車和AR / VR)的精確自定位。VINS-Fusion是VINS-Mono的擴展,支持多種視覺慣性傳感器類型(單聲道攝像機+ IMU,立體攝像機+ IMU,甚至僅限立體聲攝像機)。

代碼地址:https://github.com/HKUST-Aerial-Robotics/VINS-Fusion

1560078702786.png


浙江大學CAD&CG國家重點實驗室的CVG(Computer Vision Group)

http://www.zjucvg.net/

簡介:CVG的主要研究興趣集中在運動結構,SLAM,3D重建,增強現實,視頻分割和編輯。

實驗室主要成果(http://www.zjucvg.net/publication.html#)

RKSLAM

用於AR的基於關鍵幀的魯棒單目SLAM系統

1560079817696

LS-ACTS:

大型自動相機跟蹤系統,可以處理大型視頻/序列數據集

源碼地址:https://github.com/zju3dv/ENFT https://github.com/zju3dv/SegmentBA https://github.com/zju3dv/ENFT-SfM

1560080119497

ACTS:自動相機跟蹤系統

可以從視頻和電影序列中恢復攝像機運動和3D場景結構,提供自動跟蹤的便利性。它可以高效穩定地跟蹤各種攝像機運動,可以旋轉或自由移動。它是許多其他計算機視覺任務的基礎。

1560080413875

RDSLAM

是一個實時同步定位和建圖系統,它允許場景的一部分是動態的或整個場景逐漸變化。與PTAM相比,RDSLAM不僅可以在動態環境中穩健地工作,而且還可以處理更大規模的場景(重建的3D點的數量可以是數萬個)。

1560080685371


清華大學自動化系寬帶網絡與數字媒體實驗室BBNC

http://media.au.tsinghua.edu.cn/index/index/index

簡介:實驗室始建於2001年4月,瞄準計算攝像、腦科學與人工智能國際前沿,圍繞國家重大需求,開展基礎理論 與關鍵技術的研究。實驗室現有教授3人,副教授4人,助理副教授2人,工程師3人,博士後5人,在讀研究生3 0餘人。實驗室在國家重大儀器專項與重點項目等自然科學基金、“973”計劃、“863”計劃、以及省部級產學研等項 目支持下,在流媒體、立體視頻、飛行器可視導航、計算攝像學、腦科學觀測等方面的基礎理論與關鍵技術上取 得突破,發表期刊與會議論文200餘篇(SCI收錄115篇),本領域著名國際會議ICCP、SIGGRAPH、CVPR、ICCV 等27篇以及本領域IEEE TSP、TPAMI、TCSVT、TIP、IEEE TNNLS、IEEE TVCG、IJCV、Scientific Repo rts、OSA OL等國際權威期刊上發表論文86篇(3篇IEEE亮點文章);獲授權國內外發明專利145項。2006年 建立廣東省教育部產學研結合立體視頻研發基地、2013獲建北京市多維多尺度計算攝像重點實驗室;2008年獲 得國家科學技術發明二等獎,2012年獲得國家科學技術發明一等獎,2016年獲得國家科技進步獎二等獎。研究方向有人工智能、生物智能、計算成像。

實驗室主要成果(http://media.au.tsinghua.edu.cn/index/resear/projects

人臉三維動態重建:

當今大規模的面部動作仍遠未生動地表達人類的面部表情,爲了克服這些缺點,該項目專注於重建面部細節運動,實現了採用RGBD相機的實時3D眼神圖表現重建等功能。

1560418882883

人體動作捕捉

數十年來,人體運動捕捉一直是計算機視覺和計算機圖形學中具有挑戰性的研究課題。系統長期追求快速,低成本,易於設置和有前途的推廣系統。該項目支持手持設備的動態捕捉,無標記動態捕捉,通過雙重融合實時捕捉等。

1560419503923


中科院自動化研究所國家模式識別實驗室Robot Vision Group

http://vision.ia.ac.cn/

簡介:Robot Vision Group是中國科學院自動化研究所(CASIA)國家模式識別實驗室(NLPR)的一部分。該小組擁有8名教職員工和20多名博士生。學生們。該小組的主要研究活動集中在3D計算機視覺,包括攝像機校準和3D重建,姿勢估計,基於視覺的機器人導航和視覺服務等。該小組主要由國家自然科學基金,國家863計劃,國家973計劃和中國科學院資助。除基礎研究外,該小組還與國家文物局,國家遠程遙感中心,國家天文臺,諾基亞研究中心等合作開展視覺應用。

實驗室主要成果(http://vision.ia.ac.cn/zh/applications/index.html

中國古代建築三維重建

選取中國古代建築爲載體,對海量無序圖像數據的大場景三維重建進行系統研究,通過基於圖像的高精度三維重建技術獲取古建築物數字化三維模型,達到對這些珍貴的自然文化遺產進行數字化保護的目的。

1560418552760

基於航拍圖像的三維地形生成

通過航拍圖像自動獲取地形三維結構是計算機視覺在對地觀測領域的重要應用,其成果對於抗震救災、城市規劃、3D地圖導航等領域有着重要意義。在地形生成過程中,該系統自動計算稠密的高精度三維空間點雲,可以替代傳統的數字高程模型(DEM)。與傳統方法相比,本系統不需要地面控制點,也不需要飛行姿態信息。

1560419657097

手機上的增強現實

增強現實(Augmented Reality)技術通過電腦技術,將虛擬的信息應用到真實世界,真實的環境和虛擬的物體實時地疊加到了同一個畫面或空間同時存在。增強現實藉助計算機圖形技術和可視化技術產生現實環境中不存在的虛擬對象,並通過傳感技術將虛擬對象準確“放置”在真實環境中,藉助顯示設備將虛擬對象與真實環境融爲一體,並呈現給使用者一個感官效果真實的新環境。

1560419738922


澳洲

澳大利亞悉尼科技大學CAS實驗室

https://www.uts.edu.au/research-and-teaching/our-research/centre-autonomous-systems

簡介:悉尼科技大學自動系統中心(CAS)是一個享譽國際的機器人研究小組。專注於機器人研究,爲政府,行業和更廣泛的社區創造積極的變化。從2003年到2010年,CAS成爲ARC自主系統卓越中心的一部分,該中心是世界上最大的機器人研究小組之一。自2010年以來,CAS一直在悉尼科技大學作爲獨立研究中心。研究方向主要在現場機器人技術,研究非結構化環境中智能機器的傳感,感知和控制,以人爲中心的機器人技術,或能夠支持人類承擔各種任務的機器人。

實驗室主要成果(https://web-tools.uts.edu.au/projects/search.cfm?UnitId=672)

一種生物啓發的攀爬機器人,用於清潔和繪製悉尼海港大橋拱門內表面

自2010年以來,悉尼科技大學和新南威爾士州的道路與海事服務(RMS)一直致力於研究和開發用於鋼橋檢測和狀態評估的生物學攀登機器人。 該項目目的是開發一種可實際部署的自主攀爬機器人,用於悉尼海港大橋拱形結構內的清潔和噴漆。

一種智能水下結構維修機器人系統

由ARC Linkage項目資助,悉尼科技大學和新南威爾士州的道路和海事服務(RMS)正在開發一種用於水下橋樁檢查和維護的機器人解決方案。該項目旨在促進我們對自主機器人如何清潔和檢查水下結構構件的理解,並開發能夠開發此類機器人系統的突破性方法。在近地表和潮汐環境中使用機器人系統進行檢查和維護具有挑戰性。橋樁等結構的形狀和大小各不相同,通常包含在海洋生長中,這會使樁的幾何形狀變得模糊,並干擾條件評估。因此,機器人在低能見度和複雜水流條件下運行的能力至關重要。


澳大利亞機器學習研究所機器人視覺中心

https://ecms.adelaide.edu.au/research-impact/computer-vision-and-robotics

計算機視覺和機器人小組由Peter Corke教授(QUT),副主任Ian Reid教授(阿德萊德)和首席調查員Tom Drummond教授(蒙納士)和Robert Mahony教授(ANU)領導,致力於開發和應用基本的計算機視覺和機器人算法。這包括深度學習,生成模型,對抗性學習,記憶網絡和元學習。主要研究深度學習在語義圖像理解同步定位和建圖(SLAM)和3D場景重建、視頻理解問答、醫學影像等領域的應用。

實驗室主要成果(https://resources.rvhub.org/)

適用於微創整形外科手術的基於視覺SLAM的機器人數據集

該項目旨在開發一種基於視覺的機器人手術助手,用於微創整形外科手術。該系統將由機器人手臂組成,其中附有用於關節內導航的相機 - 關節鏡束。該系統將能夠a)在人體關節內穩健可靠地定位器械; b)從關節內圖像生成密集且準確的膝關節三維重建模型; c)半自動導航相機(通過視覺伺服)跟隨外科醫生的工具。

數據集地址:https://data.researchdatafinder.qut.edu.au/dataset/robotic-arthroscopy

1560161605795

推薦閱讀

如何從零開始系統化學習視覺SLAM?
從零開始一起學習SLAM | 爲什麼要學SLAM?
從零開始一起學習SLAM | 學習SLAM到底需要學什麼?
從零開始一起學習SLAM | SLAM有什麼用?
從零開始一起學習SLAM | C++新特性要不要學?
從零開始一起學習SLAM | 爲什麼要用齊次座標?
從零開始一起學習SLAM | 三維空間剛體的旋轉
從零開始一起學習SLAM | 爲啥需要李羣與李代數?
從零開始一起學習SLAM | 相機成像模型
從零開始一起學習SLAM | 不推公式,如何真正理解對極約束?
從零開始一起學習SLAM | 神奇的單應矩陣
從零開始一起學習SLAM | 你好,點雲
從零開始一起學習SLAM | 給點雲加個濾網
從零開始一起學習SLAM | 點雲平滑法線估計
從零開始一起學習SLAM | 點雲到網格的進化
從零開始一起學習SLAM | 理解圖優化,一步步帶你看懂g2o代碼
從零開始一起學習SLAM | 掌握g2o頂點編程套路
從零開始一起學習SLAM | 掌握g2o邊的代碼套路
零基礎小白,如何入門計算機視覺?
SLAM領域牛人、牛實驗室、牛研究成果梳理
我用MATLAB擼了一個2D LiDAR SLAM
可視化理解四元數,願你不再掉頭髮
最近一年語義SLAM有哪些代表性工作?
視覺SLAM技術綜述
彙總 | VIO、激光SLAM相關論文分類集錦
研究SLAM,對編程的要求有多高?
2018年SLAM、三維視覺方向求職經驗分享
深度學習遇到SLAM | 如何評價基於深度學習的DeepVO,VINet,VidLoc?
視覺SLAM關鍵方法總結
SLAM方向公衆號、知乎、博客上有哪些大V可以關注?

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章