3D深度估計

3D深度估計

Consistent Video Depth Estimation

·
論文地址:https://arxiv.org/pdf/2004.15021.pdf

·
項目網站:https://roxanneluo.github.io/Consistent-Video-Depth-Estimation/

·
這項研究主要探究瞭如何生成準確度和幾何一致性更高的視頻重建結果,目前該論文已被計算機圖形學頂級會議 SIGGRAPH 2020 接收,代碼也將在未來開源。

摘要

提出了一種重建單眼視頻中所有像素的稠密、幾何一致深度的算法。利用傳統的運動重建結構來建立視頻像素的幾何約束。與經典重建中的方法不同,使用基於學習的先驗,即訓練用於單個圖像深度估計的卷積神經網絡。在測試時,對該網絡進行微調,以滿足特定輸入視頻的幾何約束,同時保持其在受約束較少的視頻部分合成合理深度細節的能力。通過定量驗證,比以往的單規則重建方法具有更高的精度和更高的幾何一致性。從視覺上看,結果看起來更穩定。的算法能夠以適當程度的動態運動處理具有挑戰性的手持式捕獲輸入視頻。改進後的重建質量可用於多種應用,如場景重建和基於視頻的高級視覺效果。

在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述

不止如此,想要貓主子不嫌棄自己拍的醜醜視頻,這個方法也能拯救你!

在這裏插入圖片描述

這項研究由來自華盛頓大學、弗吉尼亞理工學院和 Facebook 的研究者合作完成。

其中第一作者羅璇現爲華盛頓大學現實實驗室博士,她本科畢業於上海交通大學,導師爲盧宏濤教授,研究方向爲立體匹配,曾在新加坡國立大學跟隨顏水成鑽研深度學習。

在這裏插入圖片描述

第二作者 Jia-Bin Huang 爲弗吉尼亞理工學院助理教授,研究方向爲計算機視覺、計算機圖形學和機器學習。曾擔任 WACV 2018、CVPR 2019、ICCV 2019、BMVC 2019 和 BMVC 2020 會議的領域主席。

用手機拍攝的視頻可以做 3D 重建嗎?

基於圖像序列進行 3D 場景重建在計算機視覺社區中已有幾十年的研究歷史。毋庸置疑,最簡單的 3D 重建捕捉方式就是利用智能手機手持拍攝,因爲這類相機很常見,還可以快速覆蓋很大的空間。如果可以利用手機拍攝的視頻實現非常密集、準確的重建,這類技術將變得非常有用。但要做到這一點困難重重。

除了重建系統都要處理的典型問題,如紋理單一區域、重複圖案和遮擋,基於手機拍攝的視頻實現重建還面臨着來自視頻本身的額外挑戰,如較高的噪聲水平、抖動和動態模糊、捲簾快門變形,以及移動對象(如人)的出現。

出於這些原因,現有的方法通常會遇到很多問題,如深度圖中有缺失區域(見下圖 b),幾何和閃爍深度不一致(見下圖 c)。

在這裏插入圖片描述

如何解決?

這篇論文提出了一種新的 3D 重建算法,可以重建單目視頻中所有像素的密集、幾何一致性深度。他們利用傳統的 structure-from-motion(SfM)方法來重建像素的幾何約束。
在這裏插入圖片描述

與傳統重建方法使用特殊先驗的做法不同,該研究使用的是基於學習的先驗,即爲單圖像深度估計訓練的卷積神經網絡。在測試時,他們微調了這個網絡,來滿足特定輸入視頻的幾何約束,同時保留其爲視頻中受約束較少的部分合成合理深度細節的能力。

定量驗證結果表明,與之前的單目重建方法相比,該方法可以達到更高的準確度及幾何一致性。從視覺上看,本文提出的方法也更加穩定。該方法可以處理具有中等程度晃動的手持拍攝視頻,可以應用到場景重建以及基於視頻的高級視覺效果。

但該方法的侷限在於算力消耗太大,因此暫時無法用在實時的 AR 場景中。不過,論文作者也表示,會將速度的提升作爲下一步的研究目標。

方法

在這裏插入圖片描述

圖 2:方法概覽。

如上圖 2 所示,該方法以單目視頻作爲輸入,目的是估計相機位姿以及每個視頻幀的深度和幾何一致性深度圖。「幾何一致性」不僅意味着深度圖不會隨着時間的推移而閃爍(flicker),還意味着所有的深度圖都是彼此一致的。也就是說,可以利用像素深度和相機位姿在幀與幀之間準確地投影這些像素。例如,一個靜態點的所有觀察結果都應該映射到世界座標系中一個單獨的普通 3D 點上,且沒有漂移(drift)。

隨意捕獲的輸入視頻爲深度重建增加了一些挑戰。由於它們大多是手持拍攝的,相機也沒有經過標定,因此經常出現動態模糊、捲簾快門變形等問題。簡陋的光照條件也會造成額外的噪聲及模糊。而且,這些視頻通常包含動態移動的對象(如人或動物),而很多重建系統是專爲靜態場景設計的,這就形成了一個大的衝突。

在有問題的場景部分,傳統的重建方法通常會生成「孔洞」(如果強制返回結果,會估計出噪聲非常大的深度)。但在這些方法對返回結果比較有信心的部分,它們通常會返回非常準確且一致的結果,因爲它們嚴重依賴幾何約束。

近期基於學習的方法彌補了這些缺陷,它們利用一種數據驅動的強大先驗來預測輸入圖像的合理深度。然而,對每一幀單獨應用這些方法會導致幾何不一致和短暫的閃爍。

本文作者提出的方法結合了以上兩種方法的優點。研究者利用了幾種現成的單圖像深度估計網絡,這些經過訓練的網絡可以合成一般彩色圖像的合理深度。他們利用從視頻中藉助傳統重建方法提取的幾何約束來微調網絡。因此,該網絡學會在特定視頻上生成具有幾何一致性的深度。

該方法包括以下兩個步驟:預處理和測試時訓練。

預處理

預處理是從視頻幀中提取幾何約束的基礎。

該研究首先使用開源軟件 COLMAP 執行傳統的 SfM 重建流程。

爲了改善對動態運動視頻的姿勢估計,研究者使用 Mask
R-CNN 來獲取人物分割結果,並移除這些區域以獲得更可靠的關鍵點提取和匹配結果,因爲視頻中的動態運動主要來自於人物。這一步可以提供準確的內部和外部相機參數,以及稀疏點雲重建。

研究者還利用光流估計了視頻幀對之間的稠密對應關係。相機標定(camera calibration)和稠密對應共同構成了幾何損失。

在這裏插入圖片描述

測試時訓練

在這一階段,研究者微調預訓練深度估計網絡,使其生成對特定輸入視頻更具幾何一致性的深度。

在每次迭代中,該方法使用當前的網絡參數採樣一對視頻幀並估計其深度圖。然後對比稠密一致性和利用當前深度估計結果得到的重投影,從而驗證深度圖是否具備幾何一致性。

最後,研究者評估了兩種幾何損失:空間損失和視差損失,並將誤差進行反向傳播,以更新網絡權重(權重對所有幀共享)。

用這種方式迭代地採樣很多對視頻幀,損失得到降低,網絡學會估計具備幾何一致性的深度,同時能夠在約束較少的部分提供合理的正則化。

該方法得到的改進通常很大,最終深度圖具備幾何一致性,與整個視頻的時序一致,且能夠準確勾勒出清晰的遮蔽邊界,即使是對於運動物體也是如此。有了計算得到的深度之後,研究者就可以爲遮擋效應(occlusion effect)提供合適的深度邊界,讓真實場景的幾何與虛擬事物進行交互。

該方法效果如何?

與其他方法的對比結果

研究者對比了當前最優的深度估計算法,這些算法分爲三個類別:

· 傳統的多視角立體視覺系統:COLMAP [Schonberger and Frahm 2016];

· 單幅圖像深度估計:Mannequin Challenge [Li et al. 2019] 和
MiDaS-v2 [Ranftl et al. 2019];

· 基於視頻的深度估計:WSVD [Wang et al. 2019a](兩幀)和 NeuralRGBD
[Liu et al. 2019](多幀)。

量化對比結果和視覺對比結果見下圖:

在這裏插入圖片描述

圖 4:該研究提出的方法與 SOTA 方法的量化對比結果。

在這裏插入圖片描述

圖 5:與 SOTA 方法的視覺對比結果。

該研究提出的方法可以從手機攝像頭隨意拍攝的視頻中生成具備幾何一致性且沒有顫動的深度估計結果。

控制變量研究

在這裏插入圖片描述

表 2:控制變量研究。該量化評估結果表明該方法的設計重要性。

在這裏插入圖片描述

圖 6:該方法的設計對輸出結果的貢獻。

在這裏插入圖片描述

圖 7:使用長期時間約束和視差損失的效果分析。

在公開基準上的量化結果對比

在這裏插入圖片描述

表 3:在 ScanNet 數據集上的量化對比結果。

在這裏插入圖片描述

表 4:在 TUM-RGBD 數據集上的量化對比結果。

在這裏插入圖片描述

表 5:在 KITTI 基準數據集上的量化對比結果。

方法侷限性

那麼該方法有沒有侷限性呢?

作者在論文中提到了該方法的四項侷限之處,分別是位姿、動態運動、光流和速度。

位姿

該方法目前依賴 COLMAP,來基於單目視頻估計相機位姿。而在難度較大的場景中,如相機平移有限及動態模糊的情況下,COLMAP 可能無法生成靠譜的稀疏重建結果和相機位姿估計。

較大的位姿誤差也會對該方法的輸出結果造成極大的負面影響,因此這限制了該方法在此類視頻中的應用。

將基於學習的位姿估計和該研究提出的方法結合起來,或許是一個不錯的研究方向。

動態運動

該方法支持包含溫和運動的視頻,但如果運動較爲激烈則該方法會出現問題。

光流

該方法依賴 FlowNet2 來構建幾何約束。使用前後向傳播一致性檢查並過濾掉不可靠的光流,但這也可能出現錯誤。這時該方法無法輸出正確的深度。研究者嘗試使用稀疏光流,但效果並不好。

速度

該方法利用視頻中所有幀提取幾何約束,因此不支持在線處理。例如,對於一個包含 244 幀、708 個採樣光流對的視頻來說,該方法的測試時訓練步耗時約 40 分鐘。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章