基於草圖的圖像檢索的文獻綜述

以前導師要求寫的文獻綜述,對我隨後的研究工作有了積極的影響,個人感覺越是儘早將看到的、讀到的進行總結(寫綜述),越能進入狀態

另外,我寫的東西我不負責哦~

參考文獻那裏有些格式不準確,我也懶得改了,切記勿照抄

第一章 前言

1.1 背景

伴隨着互聯網與移動終端的飛速發展,圖片作爲信息的主要載體之一早已融入到人們生活的方方面面。數據量的激增,使人們不得不面臨這樣一個問題:如何快速有效地從龐大的圖片集中篩選出自己想要的內容。目前,對於解決圖像檢索問題,絕大多數檢索系統[1][2]採用的是基於圖像內容檢索(CBIR, Content-Based Image Retrieval)的方法,即通過查詢每張圖片事先標註好的“關鍵字”來進行“關鍵字”的檢索,當然這裏的“關鍵字”並不是文字,而是圖像的顏色、紋理、形狀、空間位置關係等特徵。

但CBIR並不能完全滿足用戶的需求。例如,用戶所想要檢索的圖片並沒有數字格式,即圖像存於大腦,無法使用CBIR以圖搜圖,用戶也無法通過語言來描述該圖,或描述過程過於複雜,或描述方式不夠準確。鑑於上述場景,行之有效的方法就是讓用戶將腦海裏的圖片,以草圖的形式繪製下來,然後通過草圖來檢索圖片:提取圖片庫的特徵,與檢索請求中草圖的特徵進行相關度計算,系統返回相關度排序後值最大的前k張圖片,記作top-k,該top-k序列的圖片子集即是檢索結果,這就是基於草圖的圖像檢索(SBIR, Sketch-Based Image Retrieval)的核心思路[3][4][8][14]。

1.2 研究方向

SBIR已研究了25餘年[9],檢索步驟逐漸歸攏爲一個定式:將圖片轉化爲草圖,以草圖搜草圖。本文將近10年的研究方向總結爲以下三點:

  • 圖像轉草圖
  • 圖像草圖化後的特徵提取
  • 檢索方式

圖像轉草圖,目前多是使用邊緣濾波器,Canny濾波器、Sobel濾波器、Laplace濾波器[5][6][8][21]。對於邊緣提取算法,本文發現近十年來均未討論其算法改進問題,因此認爲數學層面或已無創新之處。不過E. Mathias、Zhang Y、Cheng M M等研究團隊均討論到,對於人類而言,使用簡單筆畫“複述”一副圖片,優先繪製的是圖中最吸引眼球的“精彩點”——顯著區域的圖像輪廓[8][14][15]。因此,若能提取出顯著區域再與草圖進行匹配,將大大提高匹配準確率,此內容較爲特殊,將放在第二章特徵提取方法的其他方法裏進行說明。

對於SBIR中的特徵提取,除開深度神經網絡(本文立足於傳統意義上的圖像匹配,而深度學習計算量巨大,對於百萬數據集別的圖片集,使用傳統特徵提取方法更佳合理),常見的提取方法可以分爲以下三類:全局特徵描述符(Global descriptor),從整張圖片中提取足以描述整張圖片內容的全局特徵;局部特徵描述符(Local descriptor),由圖像的單位區域得到圖像的局部特徵;其他,從三維圖形檢索借鑑而來的基於物體輪廓的特徵提取技術,可歸爲局部特徵。而檢索方法,則歸爲兩類。本文接下來將會分爲兩個部分,分別對上述特徵提取方法與檢索方法進行詳細介紹,並使用具有代表性的論文來分析使用該特徵提取方法、檢索方法的優缺點。

1.3 研究前景

研究者將檢索分爲兩個層次:粗粒度(coarse-grained)檢索與細粒度(fine-grained)檢索[18]。對於SBIR而言,粗粒度檢索或稱爲類別級別(category-level)檢索,是傳統的草圖檢索(SG-SBIR)形式;細粒度草圖檢索(FG-SBIR, fine-grained SBIR),是一個新興的概念[16][17][18],針對草圖的細節進行圖像匹配,Yu Q [17]拋棄了傳統特徵提取方法轉而使用卷積神經網絡,從效果上看比Li K [18]更好。

例如,用戶檢索鞋,SG-SBIR能爲用戶返回一系列鞋的圖片,這比用戶輸入文字“鞋”而不是畫出鞋的外觀的檢索方式更加複雜,而FG-SBIR[17][18]卻能根據用戶草圖的細節返回與這些細節對應的鞋,如下圖1所示。
圖 1 FG-SBIR下的鞋物檢索
圖 1 FG-SBIR下的鞋物檢索

本文認爲細粒度檢索這一概念是很有研究前景的,或是使用SG-SBIR與其它技術結合,克服FG-SBIR中使用神經網絡帶來的計算耗時巨大的缺點,達到FG-SBIR中細粒度檢索的能力。

第二章 特徵提取方法

2.1 全局特徵描述符

對於全局特徵描述符,出發點在於對圖片整體內容的描述,相比局部特徵描述符更加“宏觀”,不需要考慮圖像局部的內容,因此擁有計算量較局部特徵描述符更少、特徵存儲空間更小的優點。它能夠勝任圖像的匹配、分類工作,但卻無法適用於圖像出現局部仿射變換的情況,即當圖像經過透視扭曲後,全局特徵描述符無法將其與原圖歸爲一類。現有的全局特徵描述符主要有下列幾種:GIST, HoG及衍生算法。

2.1.1 GIST

GIST這個概念最初源自Friedman A[10]對用於激活記憶的場景的抽象描述;後被Oliva A等人[11]借用,作爲文中提出的一種新型的特徵描述符:空間包絡(Spatial Envelope)的理論基礎[11];隨後GIST正式被定義爲全局特徵描述符,其視覺描述子從以前的5個增長到8個,用於描述場景特徵。

作爲GIST特徵的前身,空間包絡使用5個視覺描述子來描述圖像的視覺特徵。它使用離散傅里葉變換(DFT, the discrete Fourier transform)與加窗傅里葉變換(WFT, the windowed Fourier transform)將圖像從空間域轉換到頻譜域,見圖2所示,不同的場景擁有不同的頻譜圖,可以發現,視覺描述子近似的圖片,其頻譜圖的形狀類似。
圖 2 GIST特徵提取示意圖
圖 2 GIST特徵提取示意圖

憑藉這一規律,作者隨後提出了判別譜模(DST, Discriminant spectral templates)與加窗判別譜模(WDST, windowed Discriminant spectral templates)這兩個特徵量,以此度量上述5個視覺描述子。分類時使用了PCA(Principal Component Analysis)降低特徵維度,分類算法使用的是K-NN。

Torralba A等人[12]對其進行改良,將分類算法從K-NN改爲隱含馬爾科夫模型(HMM, hidden Markov model),Siagian C [13]則是將圖片分塊,如下圖3所示,提取單位區域的GIST特徵,進而增加特徵信息,經過實驗表明,較原始GIST,分塊提取的準確率更高。
圖 3 改良的GIST特徵示意圖
圖 3 改良的GIST特徵示意圖

2.1.2 HOG與DPM

HOG作爲圖像人體檢測算法的特徵描述子表現優異,本質是統計圖像的梯度方向,突出圖像中的紋理與邊緣信息,它的前身是EHD[5][21],對於SBIR近年來並沒有使用傳統的HOG算法,而是使用HOG的改進算法或是衍生算法。
Tu B等人[20]則是使用HOG改進算法GF-HOG(Gradient Field HOG),結合草圖的筆畫顏色信息來進行圖像檢索,GF-HOG統計的不是圖像所有的像素點的HOG,而是統計圖像中作爲邊的像素點的HOG,如下式:

在這裏插入圖片描述( 2-1 )

M代表圖像中座標爲(x,y)的像素點,若像素點在已提取的邊上,則M(x,y)=1,隨後尋找M附近的空間的梯度方向,得到M的GF-HOG特徵值。

由於HOG對目標的形變十分敏感,即若圖像中的物體產生了形變,HOG無法判斷目標形變前後是否是同類物體,而實際上目標形變前後是同一物體,因此人們提出了DPM算法以解決這個問題。

DPM算法對目標的形變具有很強的魯棒性,是一種基於部件的檢測方法。 Li Y[16]將其算法應用於SBIR,不過不同於過去方法[17][18]強調草圖所描述的物體的細節,而是強調草圖描述物體的朝向、觀測視角。Li Y [16]將DPM特徵擴充至兩層結構,第一層爲傳統DPM特徵,稱之爲根過濾器(root filter),第二層爲含DPM的每個星狀圖的圖信息,稱之爲部分過濾器(part filter),而在特徵匹配時,不僅匹配DPM的相似度,還會匹配星狀圖的相似圖。Li K[18]中使用了Strongly-Supervised DPM(SS-DPM),因爲普通DPM在提取特徵後需要使用latent-SVM訓練模型,而latent-SVM的初始值採用自啓發算法,分類可能不準確,而SS-DPM的監督特性能提高latent-SVM分類的準確度。

2.1.3 小結

正如前文所述,全局特徵描述符是對圖像整體“場景”的描述,雖能提高特徵提取速度,降低特徵存儲空間,但大前提是忽略了圖像細節。對於圖像識別領域,放棄了對細節的把控,失去了對圖像內部物體的匹配,計算機並不知道目標圖像內部有什麼,這是沒有意義的。因而近幾年研究人員對於全局特徵描述符的研究表現冷淡,除了一些應用外,均是從算法層面入手將其轉換爲局部特徵,因此第二節將會說明上述傳統特徵提取的改進算法。

2.2 局部特徵描述符

局部特徵描述符擁有仿射不變性,與全局特徵描述符恰恰相反,它是從單張圖片某一特定區域提取特徵。局部特徵提取是近年來研究SBIR系統最爲推崇的方法,可以說是SBIR的研究熱點。目前比較熱門、特徵提取效果較好的方法主要有下列幾種:ShapeContext、SHOG、TENSOR描述子、EI邊緣統計。

2.2.1 ShapeContext與SparkFeature

ShapeContext具有在圖像形狀發生傾斜、位移、大小等平面變換時有較好匹配的特點[21][22],是一種經典的形狀識別特徵,與SIFT擁有同等地位[21]。傳統的ShapeContext針對封閉的輪廓提取特徵,它抽取封閉輪廓上的等距樣本點與其餘樣本點的相對向量作爲該點的上下文信息,該描述子在非剛性物體的匹配中具有很好的魯棒性。

對於SBIR而言,草圖若沒有封閉——室外場景多使用線條勾勒,不會產生封閉形狀——ShapeContext描述子效果較差,Eitz M等人[6]優化其算法使之適應SBIR:圖4所示。其步驟爲,在提取出圖像的邊緣(黑色線條表示)後,隨機選取邊緣上的點作爲特徵點(橘色圓圈),記作特徵點集UU,設置閾值γγ,若特徵點ii(紅色點)與附近的點相距d<γd<γ,則納入ii的相臨點集,後統計ii的相臨點集的極座標直方圖,作爲ii的ShapeContext特徵,遍歷UU,得到所有特徵點對應的特徵值。
圖 4 ShapeContext特徵的示意圖
圖 4 ShapeContext特徵的示意圖

Eitz M等人[6]接着提出了ShapeContext的改進算法SparkFeatures,如下圖5所示。其步驟爲,在提取出圖像的邊緣(黑色線條表示)後,對圖像進行隨機採樣,對每個採樣點(綠色圓圈)進行如下操作:從該點出發,隨機方向發散,若能夠到達圖像邊緣,則記錄其距離與向量信息,發散數爲定值,統計所有發散到達邊緣點的極座標直方圖。
圖 5 SparkFeatures特徵的示意圖
圖 5 SparkFeatures特徵的示意圖

2.2.2 SHOG

Eitz M[6]提出的改進的HOG特徵描述子,不同於HOG的全局特性,SHOG是局部特徵描述子,見圖6,在提取出圖像的邊緣(黑色線條表示)後,對圖像進行隨機採樣,對每個採樣點(綠色圓圈)進行如下操作:以該點爲中心,設置網格,統計每個網格中包含邊緣的那個網格的HOG特徵,後得到所有采樣點的HOG特徵集合,稱之爲SHOG特徵。
圖 6 SHOG特徵的示意圖
圖 6 SHOG特徵的示意圖

Eitz M等人[6]的實驗表明,SHOG較ShapeContext與SparkFeatures、EHD、ARP、TENSOR效果更好,不過文中並沒有給出PR曲線,所以其結果存疑。

2.2.3 TENSOR

TENSOR是Eitz M[5]提出的局部特徵描述符,對於每個單位區域(Cell)記作CijC_{ij},不同於HOG將梯度信息離散化至直方圖,TENSOR使用一個向量TIJT_{IJ}來代表該單位區域CijC_{ij}的梯度信息,設存在一單位向量xx,通過式2-2
在這裏插入圖片描述( 2-2 )

代表該單位區域CijC_{ij}的主要梯度方向,其中guvg_{uv}CijC_{ij}中的梯度向量,經過式( 2-3 )與式( 2-4 )變換,使GijG_{ij}擁有全部CijC_{ij}的梯度信息,

在這裏插入圖片描述( 2-3 )

在這裏插入圖片描述 ( 2-4 )
其中λλ是拉格朗日乘子,經過frobenius範數變換得到最終的TENSOR特徵,記爲TIJT_{IJ}

在這裏插入圖片描述( 2-5 )
對於TENSOR特徵相似度的計算,則是使用frobenius範數的差異,後將所有TENSOR特徵進行累加求和,得到兩個特徵集合的距離,通過距離來衡量其相似度。

Eitz M等人[21]將TENSOR與HOG在ARP、EHD的檢索結果爲基準下進行對比,同樣地(與他們的工作[5]對比),使用15萬Flickr圖片集,爲檢測系統的魯棒性,將圖片縮放、旋轉,發現在網格(grid, 每個grid下有多個cell,grid作爲多個cell的向量集合,該集合作爲描述符的一個特徵) 不同大小下,TENSOR的效果更好。不過Eitz M等人的工作[21]較[5]的不同之處在於,使用參數的變化範圍更廣,且手繪草圖的採集方式有兩個,一是臨摹,二是憑藉記憶繪製。

論文[5] [21]均提到,對於大量圖片集而言,當時並沒有一個標準來度量檢索結果的好壞,Eitz M等人[5] [21]使用的是,賦予圖片分值,當檢索系統返回對應圖片後,就爲該檢索方法加相應分數。爲更客觀,在後續工作中建立了一個標準數據集[6][8]。

2.2.4 EI

Y. Cao等人[4]提出了一種新的邊緣特徵匹配算法EI(Edgel Index Algorithm),由於特徵空間數據量極大(可達55GB,正常服務器無法處理),因此使用高效檢索架構(Structure-consistent Sketch Matching, SSM)對相似度計算(即草圖匹配)進行了優化,並提出了經過簡化的邊緣匹配方式IOCM(Indexable Oriented Chamfer Matching)。如下圖7所示,左側爲原始OCM(Oriented Chamfer Matching) [23],右側爲作者提出的IOCM(Indexable Oriented Chamfer Matching)。

在這裏插入圖片描述
圖 7 OCM與IOCM算法示意圖

當待測邊(query contour,紅線)在目標邊(object contour,藍線)由IOCM生成的範圍(綠色區域)內,則帶側邊與目標邊匹配,記作Hitmap,如下式定義:

在這裏插入圖片描述( 2-6 )

計算各個方向(文中將其離散化爲6個)上的Hitmap作爲EI算法的特徵量。

對於草圖匹配,本文設計了SSM,分爲三步,其中D代表Database,Q代表Query:第一步,D->Q,統計Hitmap爲D中的圖片打分,該步檢索記作EI-1;第二步,Q->D,使用第一步的分數選出Top-N的圖片與草圖計算相似度,降低了待匹配圖像的數量,該步檢索記作EI-2;第三步,Q,D,使用下式( 2-7 )將EI-1與EI-2的相似度結果融合到一起,作爲最終相似度,該步檢索記作EI-S。

在這裏插入圖片描述( 2-7 )

對於圖像鏈接到草圖方面,[4]使用的是Berkeley detector尋找圖片的邊緣信息。

2.2.5 小結

Eitz M[21]中說到,TENSOR比HOG的效果更好,而後續研究說明,SHOG較ShapeContext以及衍生算法SparkFeature更適合SBIR[6],同時期的Y. Cao [4]則表示,他們提出的方法EI較TENSOR更好,而這些實驗[4][6][21]中的方法並沒有使用統一的數據集在同等的條件下進行比較,因此結論的準確性不得而知,不過Eitz M 等人[6]除了提出的SHOG外,他們另一個貢獻是耗費大量人力物力建立的對SBIR的檢索結果較客觀的評價指標。

上述文章均爲未使用SIFT,這是因爲SIFT的匹配更加精確,它具有諸多不變性,而手繪草圖具有很強的隨意性(free sketch),精確的搜索將會導致檢索數據集的缺失,草圖檢索需要“模糊”的匹配。

2.3 其他方法

由於Cheng M M研究團隊[15][24]的系列研究,使得從圖像抽取顯著區域的效果變得很好,能夠模擬人類看到圖像後,以此爲基準繪製草圖的這一過程中人類所繪製的目標物體,即顯著區域,如下圖8所示,若希望參照左圖繪製草圖,那麼人類會尋找左圖的顯著區域:烏鴉,將烏鴉這一內容作爲草圖繪製,因此可以預見草圖的樣子大致會與右圖一致。

在這裏插入圖片描述在這裏插入圖片描述
圖 8 顯著區域示意圖

上述內容爲草圖檢索提供了兩種新的思路:一是借鑑三維圖形檢索中的輪廓匹配方法,由草圖輪廓搜圖像輪廓;二是經過顯著區域的過濾後,再對顯著區域中的圖像使用提取圖像邊緣的傳統草圖檢索方法[14]。

對於第一種思路,即輪廓檢索,目前較新的方法有GALIF[7]、HOAD[25];而對於第二種方法,有ARP、AROP[14]。

2.3.1 GALIF

Eitz M等人[7]提出了基於局部線條的Gabor特徵描述符GALIF(Gabor Local Line-based Feature)。GALIF對一個特徵點進行8個方向的濾波特徵提取,它能夠很好地提取圖像的局部線條特徵。

在這裏插入圖片描述
圖 9 GALIF特徵示意圖

如上圖9所示,對於圖像II,使用不同方向的Gabor濾波gig_i後產生濾波圖RiR_i,接着將RiR_i分解爲nnn*n的區域,計算各個區域中所有點的灰度平均值作爲一個特徵量,最後會得到inni*n*n個特徵值組成的特徵向量,並使其歸一化,這就是GALIF特徵的提取方法。

2.3.2 HOAD

Wang F等人[25]提出了HOAD(Histogram of Orientation Angular Distribution)作爲三維圖形檢索的特徵,如下圖10所示,

在這裏插入圖片描述
圖 10 HOAD特徵示意圖

對於上圖輪廓,首先將該輪廓轉化爲封閉圖形,後在該輪廓上均勻採樣,計算採樣點集的重心,後計算重心到每個採樣點的方向,並將該方向離散化後使用直方圖進行統計,最終得到HOAD特徵。

2.3.3 ARP與AROP

ARP特徵僅僅是粗略地統計了圖像輪廓的像素個數,並沒有考慮到圖像輪廓含有的梯度方向信息,而HOG作爲統計圖像梯度信息的特徵已在圖像識別領域得到了廣泛的應用,因此Zhang Y等人[14]將ARP特徵進行了改進,提出了一種新的特徵,記作AROP(Angle, Radius and Orientation Partition),該特徵的提取方法見下圖11,

在這裏插入圖片描述
圖 11 ARP特徵示意圖

將圖像(a)按(b)所示分割爲多個區域,每個區域擁有自己的角度、半徑信息,統計每個區域的梯度方向信息,類似HOG方法,將每個區域的梯度方向信息離散化,最終得到AROP特徵。

第三章 檢索算法

現有的方法多是在提取草圖與圖像的特徵後,計算兩者的距離,作爲草圖與圖像的相似度,然後對相似度進行排序,返回相似度排序序列中的Top-N作爲檢索結果。

對於圖片集十分巨大導致檢索速度變慢的問題,研究人員多是對這個N進行修改,因爲在實際情況中,人們在使用手繪檢索時,關心的是檢索的準確度,而不是檢索返回圖片的數量,因此在檢索的時候,只需要匹配某一類別的“關鍵圖”即可,這也是前文提到的類別級別(category-level)檢索的思路。Y. Cao[4]中使用的草圖搜圖片、圖片搜草圖這兩步預處理也是在修改N的大小。

而Eitz M等人[5][6][7]使用了一種類似文本推薦系統BoW(Bag of Words)的方法BoF(Bag of Features)作爲檢索算法。實際上BoF算法在[5][6][7]之前就有研究者提出,它的主要思想是,對圖像庫中的所有圖像提取特徵,後使用K-means進行聚類產生“詞彙”,使用tf-idf方法統計每幅圖像中的“詞彙”的權重,後用草圖的“詞彙”表乘以權重得到該草圖的“分數”,根據“分數”高低返回圖像集合。
Wang F等人[25][26]則是提出,使用推薦系統來提高檢索系統的準確性:就係統而言,若含有相當量的歷史用戶,他們已經完成了檢索,即系統中存有他們的歷史草圖,當新用戶進行檢索的時候,推薦系統通過相似度比對該用戶與歷史用戶的手繪風格,若該用戶檢索歷史用戶已經檢索過的內容,系統則將該歷史用戶推薦給新用戶,檢索系統返回這項歷史內容,以此來提高檢索準確性。

第四章 總結

本文敘述了近十年關於基於草圖的圖像檢索的方法,如前文所述,草圖檢索可以分爲兩大部分:特徵提取與圖像檢索。對於特徵提取,本文論述了全局特徵描述符與局部特徵描述符,全局特徵描述符是對圖像整體“場景”的描述,雖能提高特徵提取速度,降低特徵存儲空間,但大前提是忽略了圖像細節;局部特徵描述符,雖能達到對圖像細節把控的目的,但單張圖片含有特徵數目過多,致使特徵存儲空間過大,並不適合大數據環境下的圖像集。進而在檢索步中進行降維處理,通過降維處理減少特徵存儲空間的消耗,這就是BoW技術的應用。BoW技術能顯著地加快特徵匹配速度,對於大數據環境而言,BoW技術能夠解決數據爆炸的問題。

正如前文所討論的,結合局部特徵描述符與BoW技術,能夠提高草圖檢索的準確性。因此,對於草圖檢索而言,本文認爲對,若想在草圖檢索效果上有所提高,除了發現新的特徵描述符外,改進BoW技術也是另一個可行的研究點。

參考文獻

[1] X. Yang, X. Qian, and Y. Xue, “Scalable mobile image retrieval by exploring contextual saliency,” IEEE Trans. Image Process., vol. 24, no. 6, pp. 1709–1721, Jun. 2015.
[2] Guo J M, Prasetyo H. Content-based image retrieval using features extracted from halftoning-based block truncation coding.[J]. IEEE Transactions on Image Processing, 2015, 24(3):1010-24.
[3] A. Chalechale, G. Naghdy, and A. Mertins, “Edge image description using angular radial partitioning,” Proc. IEE, vol. 151, no. 2, pp. 93–101, Apr. 2004.
[4] Y. Cao, C. Wang, L. Zhang, and L. Zhang, “Edgel index for largescale sketch-based image search,” IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recog., Jun. 2011, pp. 761–768.
[5] Eitz M, Hildebrand K, Boubekeur T, et al. A descriptor for large scale image retrieval based on sketched feature lines[C]// Eurographics Symposium on Sketch-Based Interfaces and Modeling. ACM, 2009:29-36.
[6] Eitz M, Hildebrand K, Boubekeur T, et al. Sketch-Based Image Retrieval: Benchmark and Bag-of-Features Descriptors[J]. IEEE Transactions on Visualization & Computer Graphics, 2011, 17(11):1624-1636.
[7] Eitz M, Richter R, Boubekeur T,et al. Sketch-Based Shape Retrieval[J]. ACM Transactions on Graphics (Proceedings SIGGRAPH), 2012, 31(4):31-1—31-10
[8] E. Mathias, H. James, and A. Marc, “How do humans sketch objects?” ACM Trans. Graph., vol. 31, no. 4, pp. 44-1–44-10, 2012.
[9] Kato T, Kurita T, Otsu N, et al. A sketch retrieval method for full color image database-query by visual example[C]// Iapr International Conference on Pattern Recognition, 1992. Vol.i. Conference A: Computer Vision and Applications, Proceedings. IEEE Xplore, 1992:530-533.
[10] Friedman A. Framing pictures: the role of knowledge in automatized encoding and memory for gist[J]. J Exp Psychol Gen, 1979, 108(3):316-355.
[11] Oliva A, Torralba A. Modeling the Shape of the Scene: A Holistic Representation of the Spatial Envelope[M]. Kluwer Academic Publishers, 2001.
[12] Torralba A, Murphy K P, Freeman W T, et al. Context-based vision system for place and object recognition[C]// IEEE International Conference on Computer Vision, 2003. Proceedings. IEEE, 2003:273-280 vol.1.
[13] Siagian C, Itti L. Rapid Biologically-Inspired Scene Classification Using Features Shared with Visual Attention[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2007, 29(2):300.
[14] Zhang Y, Qian X, Tan X, et al. Sketch-Based Image Retrieval by Salient Contour Reinforcement[J]. IEEE Transactions on Multimedia, 2016, 18(8):1604-1615.
[15] Cheng M M, Zhang G X, Mitra N J, et al. Global contrast based salient region detection[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2011:409-416.
[16] Li Y, Hospedales T M, Song Y Z, et al. Fine-grained sketch-based image retrieval by matching deformable part models[J]. 2014. in Proc. BMVC, 2014, pp. 1–12.
[17] Yu Q, Liu F, Song Y Z, et al. Sketch Me That Shoe[C]// Computer Vision and Pattern Recognition. IEEE, 2016:799-807.
[18] Li K, Pang K, Song Y Z, et al. Synergistic Instance-Level Subspace Alignment for Fine-Grained Sketch-Based Image Retrieval[J]. IEEE Transactions on Image Processing, 2017, PP(99):1-1.
[19] Ren X, Ramanan D. Histograms of Sparse Codes for Object Detection[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2013:3246-3253.
[20] Tu B, Collomosse J. Scalable Sketch-Based Image Retrieval Using Color Gradient Features[C]// IEEE International Conference on Computer Vision Workshop. IEEE Computer Society, 2015:1012-1019.
[21] Eitz M, Hildebrand K, Boubekeur T, et al. An evaluation of descriptors for large-scale image retrieval from sketched feature lines[J]. Computers & Graphics, 2010, 34(5):482-498.
[22] Belongie S, Malik J, Puzicha J. Shape Matching and Object Recognition Using Shape Contexts[C]// IEEE International Conference on Computer Science and Information Technology. IEEE, 2010:509-522.
[23] B. Stenger, A. Thayananthan, P. Torr, and R. Cipolla. Modelbased hand tracking using a hierarchical bayesian filter. PAMI, 2006
[24] Cheng M M, Warrell J, Lin W Y, et al. Efficient Salient Region Detection with Soft Image Abstraction[C]// IEEE International Conference on Computer Vision. IEEE, 2013:1529-1536.
[25] Wang F, Lin S, Luo X, et al. A Data-Driven Approach for Sketch-Based 3D Shape Retrieval via Similar Drawing‐Style Recommendation[C]// Computer Graphics Forum. 2017.
[26] Wang F, Lin S, Wu H, et al. Data-driven method for sketch-based 3D shape retrieval based on user similar draw-style recommendation[C]// SIGGRAPH Asia. ACM, 2016:34.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章