用於類別級物體6D姿態和尺寸估計的標準化物體座標空間

作者:五百英里
來源:微信公衆號|3D視覺工坊(系投稿)
3D視覺精品文章彙總:https://github.com/qxiaofan/awesome-3D-Vision-Papers/

點擊上方“計算機視覺工坊”,選擇“星標”

乾貨第一時間送達

譯者:五百英里

論文、代碼地址:在公衆號「3D視覺工坊」,後臺回覆「6D姿態」,即可直接下載。

 

摘要

本文的目的是估計RGB-D圖像中未見過的對象實例的6D姿態和尺寸。與“實例級”6D姿態估計任務相反,我們的問題假設在訓練或測試期間沒有可用的精確對象CAD模型。爲了處理給定類別中不同且未見過的對象實例,我們引入了標準化對象座標空間(NOCS)-類別中所有可能對象實例的共享規範表示。然後,我們訓練了基於區域的神經網絡,可以直接從觀察到的像素向對應的共享對象表示(NOCS)推斷對應的信息,以及其他對象信息,例如類標籤和實例蒙版。可以將這些預測與深度圖結合起來,共同估算雜亂場景中多個對象的6D姿態和尺寸。爲了訓練我們的網絡,我們提出了一種新的上下文感知技術,以生成大量完全標註的混合現實數據。爲了進一步改善我們的模型並評估其在真實數據上的性能,我們還提供了具有大型環境和實例變化的真實數據集。大量實驗表明,所提出的方法能夠穩健地估計實際環境中未見過的對象實例的姿態和大小,同時還能在標準6D姿態估計基準上實現最新的性能。

1 引言

檢測對象並估計其3D位置、方向和大小是對虛擬現實和增強現實(AR)、機器人技術和3D場景的重要要求。這些應用程序需要在可能包含以前未見過的對象實例的新環境中運行。過去的工作探討了實例級6D姿態估計問題[37,46,27,51,6,28],其中事先提供了精確的CAD模型及其大小。不幸的是,這些技術無法在絕大多數對象從未見過且沒有已知CAD模型的常規設置中使用。另一方面,類別級別的3D對象檢測方法[43、36、9、34、49、12]可以估計對象類別標籤和3D邊界框,而無需精確的CAD模型。但是,估計的3D邊界框取決於視點,並且不對對象的精確方向進行編碼。因此,這兩種方法都無法滿足需要6D姿態和3個非均勻縮放參數(編碼尺寸)的未見過對象的應用程序的要求。

在本文中,我們旨在通過介紹據我們所知第一種用於多個對象的類別級6D姿態和尺寸估計的方法,以彌合這兩種方法之間的差距,這對於新穎的對象實例而言是一個難題。由於我們無法將CAD模型用於未見過的物體,因此第一個挑戰是找到一種表示形式,該表示形式可以定義特定類別中不同對象的6D姿態和尺寸。第二個挑戰是無法使用大規模數據集進行訓練和測試。SUN RGB-D或NYU v2等數據集缺少用於精確6D姿態和尺寸的註釋,或不包含對象類別-而在桌面或桌面操作任務中瞭解出現對象的6D姿態和尺寸將非常有用。

圖1我們提出了一種用於RGB-D圖像中多個未見過物體的類別級別6D姿態和尺寸估計的方法。一種新穎的歸一化對象座標空間(NOCS)表示形式(在(b)中用顏色編碼)使我們能夠在類別級別上一致地定義6D姿態。我們獲得了未見過的物體的完整6D姿態((c)中的軸)和尺寸((c)中的紅色邊框)。

爲了解決表示挑戰,我們將問題公式化爲在共享對象描述空間中找到對象像素與規範化座標之間的對應關係(請參見第3節)。我們定義了一個稱爲標準化對象座標空間(NOCS)的共享空間,其中所有對象都包含在一個公共的標準化空間中,並且類別內的所有實例都始終一致。即使對於未見過的物體實例,這也可以進行6D姿態和尺寸估計。我們方法的核心是卷積神經網絡(CNN),它可以從單個RGB圖像聯合估計對象類別,實例蒙版和多個對象的NOCS映射。直觀地,NOCS映射捕獲可見光的歸一化形狀通過預測對象像素和NOCS之間的密集對應關係來預測對象的各個部分。我們的CNN通過將NOCS映射表述爲像素迴歸或分類問題來對其進行估算。然後,使用姿態擬合方法將NOCS映射與深度映射一起使用,以估計完整的6D姿態和對象的尺寸大小。

爲了應對數據挑戰,我們引入了一種空間感知上下文的混合現實方法,以自動生成大量數據(275K訓練,25K測試),這些數據由ShapeNet Core與真實桌面場景合成的逼真的合成對象組成 。這種方法可以自動生成具有雜亂對象和全地面真相註釋的真實數據,以用於類別標籤,實例蒙版,NOCS映射,6D姿態和尺寸大小。我們還提供了一個用於訓練和測試的真實數據集,其中包含18種不同場景以及6種物體類別的地面真實6D姿態和尺寸註釋,總共有42個唯一實例。據我們所知,我們是針對6D姿態和尺寸以及3D對象檢測任務的最大,最全面的訓練和測試數據集。

我們的方法使用來自商品RGB-D傳感器的輸入,旨在處理對稱和非對稱對象,使其適合於許多應用。圖1顯示了我們的方法在桌面場景上運行的示例,其中在訓練過程中有多個未見過的對象。總而言之,這項工作的主要貢獻是:

  • 標準化對象座標空間(NOCS),一個統一的共享空間,允許不同但相關的對象具有一個公共參考系,從而可以對未見過的對象進行6D姿態和尺寸估計。
  • 一個CNN,可共同預測RGB圖像中多個未見過的對象的類標籤,實例蒙版和NOCS映射。我們在姿態擬合算法中將NOCS圖與深度圖一起使用,以估計完整的6D姿態和對象尺寸。
  • 數據集:一種空間感知上下文的混合現實技術,用於在真實圖像中合成對象,使我們能夠生成大型帶註釋的數據集來訓練我們的CNN。我們還提供了經過全面註釋的真實世界數據集,用於訓練和測試。

2 相關工作

在本節中,我們重點介紹與類別級別3D對象檢測,實例級別6D姿態估計,RGB-D圖像類別級別4 DoF姿態估計以及不同數據生成策略有關的工作。

類別級別的3D對象檢測:預測對象的6D姿態和尺寸的挑戰之一是將它們定位在場景中並找到其物理尺寸,可以將其表述爲3D檢測問題[54、22、21, 31,14]。值得注意的嘗試包括[43,55],他們將3D體積數據作爲輸入來直接檢測3D對象。另一項工作思路[36、20、10、29]提出,首先要在2D圖像中生成2D對象建議,然後將建議投影到3D空間中以進一步完善最終的3D邊界框位置。上述技術達到了令人印象深刻的3D檢測率,但不幸的是,它僅專注於找到對象的邊界體積,而沒有預測對象的6D姿態。

實例級6 DoF姿態估計:鑑於其實際的重要性,目前有大量工作專注於實例級6D姿態估計。在這裏,任務是提供對象的3D位置和3D旋轉(無比例),假設在訓練過程中可以使用精確的3D CAD模型和這些對象的大小。現有技術可大致歸類爲模板匹配或對象座標迴歸技術。模板匹配技術將3D CAD模型與諸如迭代最近點[4,53]之類的算法對齊到觀察到的3D點雲,或使用手工製作的本地描述符進一步指導對齊過程[26,11]。這一系列技術經常遭受對象間和對象內的遮擋,這在我們僅對對象進行部分掃描時很常見。基於對象座標迴歸的第二類方法旨在使與每個對象像素相對應的對象表面位置迴歸。此類技術已成功應用於身體姿態估計[45,18],攝像機重新定位[39,48]和6D對象姿態估計[5]。

在訓練和測試期間,以上兩種方法都需要對象的精確3D模型。除了在測試時將所有3D CAD模型或學習的對象座標迴歸器存儲在內存中的實際限制外,捕獲非常大的對象陣列的高保真度和完整的3D模型也是一項艱鉅的任務。儘管我們的方法受對象座標迴歸技術的啓發,但由於我們在測試時不再需要完整且高保真的對象3D CAD模型,因此它與上述方法也有很大不同。

類別級別4 DoF姿態估計:在類別級別姿態估計方面已有一些工作[20、42、19、35、7],但是它們都做出了簡化的假設。首先,這些算法將旋轉預測約束爲僅沿重力方向(僅四個自由度)。其次,它們專注於一些大型的房間對象類別(例如,椅子,沙發,牀或汽車),並且沒有考慮對象對稱性[20、42、19]。相反,我們估計了各種手部比例對象的姿態,由於姿態變化較大,這些姿態通常比房間比例大小的對象具有更大的挑戰性。我們的方法還可以預測完整的6D姿態和尺寸,而無需假設物體的重力方向。最終,我們的方法以每幀0.5 s運行,這比替代方法([20]每幀約70 s,[42]每幀25分鐘)要快得多。

訓練數據的生成:訓練CNN的一個主要挑戰是缺乏具有足夠類別,姿態,雜亂和光照變化的訓練數據。爲了構建包含對象標籤的現實世界數據集已經進行了一些努力(例如[40、41、50])。不幸的是,這些數據集往往相對較小,主要是由於與地面真相註釋相關聯的高成本(時間和金錢)。這一限制是其他作品(例如[35、44、51])產生動力的原因,這些作品生成的數據完全是合成的,從而可以以較低的成本生成大量完美註釋的訓練數據。爲了簡單起見,所有這些數據集都忽略了因素(材料,傳感器噪聲和照明)的組合,這些因素在合成數據分佈和實際數據分佈之間造成了實際的差距。爲了縮小這種差距,[13]生成了通過在真實背景上渲染虛擬對象來混合真實數據和合成數據的數據集。當背景是真實的,渲染的對象在空中飛行並且脫離上下文[13],這阻止了算法利用重要的上下文線索。

我們引入了一種新的混合現實方法,以一種上下文感知的方式自動生成由對象和真實背景的合成渲染組成的大量數據,這使得它更加現實。這得到了實驗的支持,實驗表明,我們的上下文感知訓練數據使模型能夠更好地推廣到真實的測試數據。我們還提出了一個真實世界的數據集,以進一步改進學習和評估。

3 背景和概述

類別-級別6D對象姿態和尺寸大小估計:我們關注估計對象實例的3個旋轉,3個平移和3個比例參數(尺寸)的問題。這個問題的解決方案可以看成一個圍繞對象的緊密包圍的邊界框(見圖1)。儘管以前沒有觀察到這些對象,但是這些對象來自在訓練過程中已觀察到訓練樣本的已知對象類別(例如,相機)。這項任務特別具有挑戰性,因爲我們無法在測試時使用CAD模型,並且無法爲未見過的物體定義6D姿態。爲了克服這個問題,我們提出了一種新的表示形式,它定義了一個共享的對象空間,從而可以爲未見過的對象定義6D姿態和尺寸大小。

圖2.規範化對象座標空間(NOCS)是包含在單位多維數據集中的3D空間。對於給定的對象類別,我們使用面向規範的實例並將其規範化以位於NOCS內。將NOCS中的每個(x,y,z)位置可視化爲RGB顏色元組。我們根據NOCS在RGB圖像上的透視投影,NOCS映射(左下插圖)來訓練我們的網絡。在測試時,網絡會將NOCS映射回歸,然後將其與深度映射一起用於6D姿態和尺寸估計。

歸一化對象座標空間(NOCS):將NOCS定義爲包含在單位立方體內的3D空間,即{x,y,z}∈[0,1]。給定每個類別的已知對象CAD模型的形狀集合,我們通過均勻縮放對象以使其緊邊界框的對角線的長度爲1並在NOCS空間內居中來對它們的大小進行歸一化(請參見圖2)。此外,我們在同一類別中一致地對齊對象中心和方向。我們使用ShapeNetCore [8]中的模型,這些模型已經針對尺寸,位置和方向進行了規範化處理。圖2顯示了相機類別中規範化形狀的示例。我們的表示允許將形狀的每個頂點表示爲NOCS(圖2中的顏色編碼)內的元組(x,y,z)。

我們的CNN可以預測以顏色編碼的NOCS座標的2D透視投影,即NOCS映射(圖2的左下方)。可以使用多種方法來解釋NOCS映射:(1)以NOCS形式對物體的觀察部分進行形狀重構,或者(2)作爲密集的像素-NOCS對應關係。我們的CNN學會對未見過的物體進行形狀預測,或者在對大型形狀集合進行訓練時學會預測物體像素與NOCS的對應關係。這種表示比其他方法(例如邊界框)更健壯,因爲即使在對象僅部分可見的情況下我們也可以操作。

方法概述:圖3說明了我們的方法,該方法使用RGB圖像和深度圖作爲輸入。CNN僅從RGB圖像估計類別標籤,實例蒙版和NOCS映射。我們在CNN中不使用深度圖,因爲我們想利用不包含深度的現有RGB數據集(例如COCO)來提高性能。NOCS映射對標準化空間中對象的形狀和大小進行編碼。因此,我們可以在以後的階段使用深度圖來提升此歸一化空間,並使用可靠的異常值移除和對齊技術來預測完整的6D對象姿態和尺寸。

圖3.我們方法的輸入是具有多個對象的場景的RGB和深度圖像。我們的CNN會爲RGB圖像中的每個對象預測類別標籤,實例蒙版和NOCS映射(顏色編碼)。然後,我們將每個對象的NOCS映射與深度圖像一起使用,以獲取完整的6D姿態和尺寸(軸和紅色緊邊框),即使以前從未見過該對象。

我們的CNN建立在Mask R-CNN框架[23]之上,並進行了改進以共同預測NOCS映射,此外還添加了類別標籤和實例分割。第5節包含有關我們的改進和可以處理對稱對象的新損失函數的更多詳細信息。在訓練期間,我們使用通過新的上下文感知MixEd ReAlity(CAMERA)方法渲染的地面真相圖像(請參見第4節)。龐大的數據集使我們可以在測試時將新類別的新實例推廣到新的實例。爲了進一步縮小領域差距,我們還使用了較小的實際數據集。

4 數據集

類別級別3D檢測以及6D姿態和尺寸大小估計的主要挑戰是數據ground truth的可用性。儘管已經進行了許多嘗試,例如NYU v2 [40]和SUNRGB-D [41],但它們具有較大的侷限性。首先,它們不提供對象的6D姿態,而僅關注3D邊界框。其次,諸如增強現實和機器人技術之類的應用受益於桌面設置中的手動縮放對象,而當前設置集中於椅子和桌子等較大對象的數據集中缺少這些對象。最後,這些數據集不包含我們所需的ground truth類型的註釋(即,NOCS映射),並且包含數量有限的示例。

4.1 情境感知的混合現實方法環境感知混合現實途徑

爲了便於生成具有手部比例尺對象的ground truth的大量訓練數據,我們提出了一種新的上下文感知的MixEd ReAlity(CAMERA)方法,該方法解決了以前方法的侷限性,並減少了數據生成的時間消耗,並顯着提高了效益。它以上下文感知的方式將真實的背景圖像與合成渲染的前景對象結合在一起,即,合成對象被渲染併合成爲具有合理物理位置,照明和比例的真實場景(參見圖4)。這種混合現實方法使我們能夠生成比以前更多的訓練數據。

真實場景:我們使用31種室內場景的真實RGB-D圖像作爲背景(圖4中間)。我們的重點是放在桌面場景上,因爲大多數以人爲中心的室內空間都是由桌面表面和可縮放的物體組成的。我們總共爲31個場景收集了553張圖像,其中有4張用於驗證。

合成對象:爲了在上述真實場景中渲染逼真的對象,我們從ShapeNetCore [8]中選擇了手工縮放的對象,手動刪除了看起來不真實或存在拓撲問題的對象。總共,我們選擇了6個對象類別-瓶,碗,相機,罐,筆記本電腦和杯子。我們還創建了一個干擾項類別,該類別由上面未列出的類別(例如監視器,電話和吉他)中的對象構成。即使在場景中存在其他對象的情況下,也可以爲主要類別做出預測時提高魯棒性。我們精心策劃的ShapeNet Core版本包括1085個單獨的對象實例,其中我們預留了184個實例進行驗證。

情境感知合成:爲了提高真實感,我們以情境感知方式合成虛擬對象,即我們將它們放置在有可能的光線下自然發生的位置(例如,在支撐表面上)。我們使用平面檢測算法[15]來獲得真實圖像中的像素級平面分割。隨後,我們在可以放置合成對象的分段平面上採樣隨機位置和方向。然後,我們放置幾個虛擬光源來模擬真實的室內照明條件。最後,我們將渲染的圖像和真實的圖像相結合,以生成具有完美的地面真實NOCS圖,蒙版和類別標籤的逼真的合成圖像。

我們總共渲染了300K合成圖像,其中有25K用於驗證。據我們所知,這是類別級6D姿態和尺寸估計的最大數據集。我們的混合現實合成技術是使用Unity遊戲引擎[2]和自定義插件進行平面檢測和點採樣(全部將公開發布)來實現的。與使用無上下文感知的數據相比,使用我們的方法生成的圖像看起來合理且逼真,從而使泛化能力提高。

圖4.我們使用上下文感知的MixEd ReAlity(CAMERA)方法通過組合桌面場景的真實圖像,檢測平面表面並將合成對象渲染到平面表面上來生成數據(左圖)。由於對象是合成對象,因此我們可以獲得類別標籤,實例蒙版,NOCS映射以及6D姿態和尺寸大小的準確ground truth情況。我們的方法快速,具有成本效益,併產生逼真的圖像(中間)。我們還收集了用於訓練,測試和驗證的真實數據集(右)。

4.2 真實世界數據

爲了進一步改善和驗證我們的算法在充滿挑戰的雜亂和光照條件下的真實世界性能,我們捕獲了兩個真實世界數據集:(1)真實世界訓練數據集補充了我們先前生成的混合現實數據,(2) 真實的測試數據集,以評估6D姿態和尺寸估計的性能。我們開發了一種半自動方法來註釋物體姿態和尺寸的ground truth。圖4顯示了我們真實數據的示例。

我們使用結構傳感器[1]捕獲了18個不同真實場景的8K RGB-D幀(用於訓練的4300,用於驗證的950和用於測試的2750)(分別用於訓練的7個場景,用於驗證的5個場景和用於測試的6個場景)[1]。對於每個訓練和測試子集,我們使用6個類別,每個類別使用3個唯一實例。對於驗證集,我們使用6個類別,每個類別1個唯一實例。我們在每個場景中放置5個以上的對象實例,以模擬現實世界中的雜亂情況。對於每種情況,我們都使用爲此目的開發的RGB-D重建算法獲得了乾淨且準確的3D網格。總體而言,我們的組合數據集包含18個不同的真實場景,42個唯一的對象實例,涵蓋6個類別,使其成爲類別級6D姿態和尺寸估計的最全面的數據集。

5 方法

圖3顯示了我們從RGB-D圖像中對多個先前未見過的對象進行6D姿態和大小估計的方法。CNN會預測對象的類別標籤,蒙版和NOCS映射。然後,我們使用NOCS圖和深度圖來估計度量6D姿態和對象的大小。

5.1. NOCS地圖預測CNN

我們的CNN的目標是純粹基於RGB圖像估算對象的類標籤,實例蒙版和NOCS映射。我們建立在基於區域的Mask R-CNN框架[23]之上,因爲它展示了2D對象檢測和實例分割任務的最新性能,具有模塊化,靈活,快速,並且可以輕鬆地進行增強以預測NOCS映射,如下所述。

5.1.1 NOCS Map Head

maskR-CNN建立在Faster R-CNN體系結構之上[38],它由兩個模塊組成一個用於建議可能包含對象的區域的模塊,以及一個用於檢測和分類區域內對象的檢測器。此外,它還可以預測區域內對象的實例分割。

圖5.NOCS map head架構。我們向Mask R-CNN體系結構添加了三個附加的頭部,以預測NOCS映射(彩色框)的x,y,z座標。這些頭可以用於直接像素迴歸或分類(最佳)。我們使用ReLU激活和3×3卷積。

我們的主要貢獻是爲Mask R-CNN添加了3個頭部結構,以預測NOCS映射的x,y,z分量(請參見圖5)。對於每個建議的興趣區域(ROI),頭的輸出大小爲28×28×N,其中N是類別數,每個類別包含該類別中所有檢測到的對象的x(或y,z)座標。與mask頭類似,我們在測試過程中使用對象類別先查找相應的預測通道。在訓練期間,損失函數中僅使用地面真實物體類別的NOCS映射組件。我們使用ResNet50 [25]主幹與功能金字塔網絡(FPN)結合使用。

迴歸與分類:爲了預測NOCS映射,我們可以通過離散化像素值來回歸每個像素值或將其視爲分類問題(由圖5中的(B)表示)。直接回歸可能是一項艱鉅的任務,有可能在訓練過程中引入不穩定性。類似地,具有大量類別(例如B = 128、256)的像素分類可能會引入更多參數,從而使訓練比直接回歸更具挑戰性。我們的實驗表明,B = 32的像素分類比直接回歸的效果更好。

損失函數:我們網絡的類,框和mask head使用與[23]中所述相同的損失函數。對於NOCS映射頭,我們使用兩個損失函數:用於分類的標準softmax損失函數,以及用於迴歸的以下softL1損失函數,這使學習更加強大。

訓練協議:我們用在COCO數據集上的二維實例分割任務上訓練的權重來初始化ResNet50,RPN和FPN [33]。對於所有頭,我們使用[24]中提出的初始化技術。batch size使用2,初始學習率爲0.001,以及SGD優化器,其動量爲0.9,重量衰減爲。在訓練的第一階段,我們凍結ResNet50權重,僅訓練磁頭中的圖層(RPN和FPN)進行10K迭代。在第二階段,我們將ResNet50層凍結在4級以下,並進行3K迭代訓練。在最後階段,我們將ResNet50層凍結在3級以下,再進行70K次迭代。切換到每個階段時,我們的學習率都會降低十分之一。

5.2  6D姿態和尺寸估計

我們的目標是通過使用NOCS映射和輸入深度圖來估算檢測到的物體的6D姿態和尺寸。爲此,我們使用RGB-D相機的內部和外部特性將深度圖像與彩色圖像對齊。然後,我們應用預測的對象蒙版以獲得檢測到的對象的3D點雲Pm。我們還使用NOCS映射獲得Pn的3D表示。然後,我們估計將Pn轉換爲Pm的比例,旋轉和平移。對於這個7維剛性變換估計問題,我們使用Umeyama算法[47],對於異常值去除,我們使用RANSAC [16]。

備註:作者也是我們「3D視覺從入門到精通」特邀嘉賓:一個超乾貨的3D視覺學習社區

本文僅做學術分享,如有侵權,請聯繫刪文。下載1在「計算機視覺工坊」公衆號後臺回覆:深度學習,即可下載深度學習算法、3D深度學習、深度學習框架、目標檢測、GAN等相關內容近30本pdf書籍。
下載2在「計算機視覺工坊」公衆號後臺回覆:計算機視覺,即可下載計算機視覺相關17本pdf書籍,包含計算機視覺算法、Python視覺實戰、Opencv3.0學習等。
下載3在「計算機視覺工坊」公衆號後臺回覆:SLAM,即可下載獨家SLAM相關視頻課程,包含視覺SLAM、激光SLAM精品課程。

重磅!計算機視覺工坊-學習交流羣已成立掃碼添加小助手微信,可申請加入3D視覺工坊-學術論文寫作與投稿 微信交流羣,旨在交流頂會、頂刊、SCI、EI等寫作與投稿事宜。
同時也可申請加入我們的細分方向交流羣,目前主要有ORB-SLAM系列源碼學習、3D視覺、CV&深度學習、SLAM、三維重建、點雲後處理、自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產品落地、視覺競賽、車牌識別、硬件選型、深度估計、學術交流、求職交流等微信羣,請掃描下面微信號加羣,備註:”研究方向+學校/公司+暱稱“,例如:”3D視覺 + 上海交大 + 靜靜“。請按照格式備註,否則不予通過。添加成功後會根據研究方向邀請進去相關微信羣。原創投稿也請聯繫。▲長按加微信羣或投稿▲長按關注公衆號

3D視覺從入門到精通知識星球:針對3D視覺領域的知識點彙總、入門進階學習路線、最新paper分享、疑問解答四個方面進行深耕,更有各類大廠的算法工程人員進行技術指導。與此同時,星球將聯合知名企業發佈3D視覺相關算法開發崗位以及項目對接信息,打造成集技術與就業爲一體的鐵桿粉絲聚集區,近2000星球成員爲創造更好的AI世界共同進步,知識星球入口:學習3D視覺核心技術,掃描查看介紹,3天內無條件退款

 圈裏有高質量教程資料、可答疑解惑、助你高效解決問題覺得有用,麻煩給個贊和在看~  

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章