圖像顯著性研究

人類可以快速準確地識別視覺場中的顯著區域。在機器上模擬人類的這種能力對於使機器能夠像人類一樣處理視覺內容是至關重要的。在過去的幾十年內,已有大量的顯著性檢測方法進入了公開發表。這些方法中的大部分[1-4]都趨向於預測人眼視覺注視點。然而這些人眼視覺注視點只是一些空間中的離散點,並不能準確地標識整個顯著區域[5-6]。
近些年來,一些科研單位和研究人員已經開始密切關注於顯著區域檢測方法的構建工作,如洛桑聯邦理工學院的Sabine Süsstrunk研究員,以色列理工學院的Ayellet Tal教授,微軟亞洲研究院的研究人員,清華大學的胡世民教授等。顯著區域檢測方法對以下領域發揮着重大的助益作用:圖像分割[7]、物體檢測[8]、內容保持的圖像縮放[9]等。本文將對顯著區域檢測算法的研究現狀進行介紹,同時對典型的顯著區域檢測算法進行分析。
文章內容組織結構爲:第2節對現有的顯著區域檢測算法進行了分類和分析;第3節對典型的顯著區域檢測算法進行了評測;最後在第4節給出了總結,並展望了下一步的研究工作。
1顯著區域檢測算法分類及分析
感知方面的研究成果表明[10]:在低層視覺顯著性中,對比度是最重要的影響因素。現有的顯著區域檢測算法通過計算每個圖像子區域同其一定範圍內的相鄰區域的對比度來度量該圖像子區域的顯著性。而依據用於計算對比度的相鄰區域空間範圍的不同,現有的顯著區域檢測算法可分爲兩類:基於局部對比的算法[6,11-12]和基於全局對比的算法[13-18]。下面分別對其探討如下。
1.1基於局部對比的顯著區域檢測算法
基於局部對比的顯著區域檢測算法通過計算每個圖像子區域或像素同其周圍一個小的局部領域的對比度來度量該圖像子區域或像素的顯著性。Ma等人[11]提出了一種基於局部對比和模糊生長的顯著區域檢測算法。該方法首先對輸入圖像進行均值濾波和降採樣。然後,該方法對新產生的低分辨率圖像中的每個像素計算其與周圍N個像素的LUV顏色向量的歐幾里得距離之和, 並將此值作爲該像素的顯著值。爲了從產生的顯著圖中提取顯著區域,Ma等人[11]運用模糊生長(fuzzy growing)的方法提取顯著區域。Liu等人[6]爲了更加準確地檢測顯著區域,提出了一系列新的局部區域和全局特徵用於計算顯著性。這些特徵包括:多尺度對比,中心-周圍直方圖和顏色空間分佈。該方法通過學習一個條件隨機場來高效地結合上述這些特徵用於檢測顯著區域。由上可知,因爲只是通過局部對比來檢測顯著區域,所以基於局部對比的方法趨向於關注邊緣周圍的區域,而不會突出整個顯著區域(在生成的顯著圖中即表現爲邊緣周圍的區域具有高的顯著值,而顯著區域內部的顯著值則較低)。這個問題可以稱其爲“不一致突出顯著區域”問題。
1.2基於全局對比的顯著區域檢測算法
基於全局對比的顯著區域檢測算法將整幅圖像作爲對比區域來計算每個圖像子區域或像素的顯著值。Achanta 等人[13]從頻率域角度出發,首次提出了一種基於全局對比的顯著區域檢測的方法。該方法將經過高斯低通濾波圖像中的每個像素值和整幅圖像的平均像素值之間的歐幾里得距離作爲該點的顯著值。該方法非常簡單,時間消耗非常低,且實驗結果在查準率-差全率方面的效果也堪稱優良。該方法使得顯著區域檢測向實用化的方向更前進了一步。然而Achanta 等人提出的方法[13]在以下兩種情況下會失效:
(1)顯著區域的顏色佔圖像中的大部分,通過方法[11]計算後,背景會具有更高的顯著值;
(2)背景中含有少量突出的顏色,這樣背景中的這部分顏色的顯著值也會非常高。第1期景慧昀,等:顯著區域檢測算法綜述智能計算機與應用第4卷
針對以上缺陷,作者又在文章[18]中將此方法完成了進一步的改進。作者發現檢測顯著區域邊緣和檢測顯著區域中心所需要的圖像頻段是不同的,由此而依據像素點越在圖像中心越可能接近區域中心這樣一個假設,來調整均值濾波的帶寬,使得位於顯著區域不同位置的像素點則有不同的均值濾波帶寬。而且,即將經過濾波後的圖像中每個像素值和該像素所在的對稱子窗口內的像素平均值的歐幾里得空間距離作爲該點的顯著值。經過這樣的調整,算法的時間複雜度有所提高,但是實驗結果性能卻有較大提升。
Cheng等人在文章[15]中提出了兩種簡單快速且更爲準確的顯著區域檢測方法。第一種方法只採用顏色的全局對比,作者將每個像素點和圖像中其它所有像素的Lab顏色向量的歐幾里得距離之和的1 / N(N爲該圖的像素點個數)作爲該點的顯著值。爲了更快速地開展計算,作者對圖像中的顏色進行了量化,以顏色爲單位計算每種顏色和圖像中其它所有顏色的歐幾里得距離。第一種方法中只考慮了顏色的全局對比,並未考慮空間位置關係,使得和顯著區域顏色接近的背景區域的顯著值也較高。作者在加入空間位置關係後又一次提出了方法二:首先對圖像進行分割,獲得一定數量的子區域。基於子區域,將子區域之間的空間位置關係作爲權值計算該子區域與圖像其它所有子區域之間的相似度之和。方法2比方法1的時間複雜度略高(主要是由於引入了圖像分割操作,該操作比較耗時),但是實驗結果得到了較大提高。通過仿真驗證,Cheng等人[15]提出的方法簡單高效。   He等人[17]在Cheng的研究基礎上,提出了結合全局對比和顏色空間分佈的顯著區域檢測方法。作者指出顏色的空間分佈越緊湊,該類顏色就應具有更高的顯著性,反之亦然。該方法將每類顏色所屬像素空間位置的方差作爲衡量顏色空間分佈的指標,生成顏色空間顯著圖。其後將顏色空間顯著圖和直方圖對比度顯著圖或區域對比度顯著圖進行疊加得到最終的顯著圖。Perazzi等人[16]也提出了一個基於對比度和空間分佈的顯著區域檢測方法。
上述這些基於全局對比的顯著區域檢測方法可以在一定程度上消減“不一致突出顯著區域”問題。但是當顯著區域非常大或者圖像背景非常複雜時,這些基於全局對比的方法就趨向於突出背景區域而不是顯著區域了。因而該問題可以稱之爲“突出圖像背景”問題。
2顯著區域檢測算法測試
本節使用Achanta等人[13]提出的公開可用的測試圖像庫來評價現有典型的顯著區域檢測算法的性能。該測試圖像庫包含了1 000幅自然圖像以及與其相對應標識顯著區域的二值基準圖像,並將查準率-查全率曲線作爲衡量顯著區域檢測算法性能的評價指標。
圖1顯示了近期6個性能最先進的顯著區域檢測方法(MZ[11]、 LC[14]、 FT[13]、 HC[15]、 RC[15]、 SF[16])在Achanta數據集上的評測結果。這些方法中,對於FT、HC、RC和SF,本節使用作者的原始的實現程序來生成對應的顯著圖。而對於MZ和LC方法,本節直接使用Ma等人[11]和Cheng等人[15]所提供的顯著圖。由圖1可以看出SF在Achanta等人[13]提供的測試集上取得了最好的檢測性能。
顯著性檢測模型
3結論與展望
本文對現有的顯著區域檢測方法進行概述。現有的顯著區域檢測方法是利用局部鄰域或者整幅圖像作爲對比區域來計算顯著性的。從本質上而言,現有方法使用的並不恰當的對比區域導致了其相應具有的“不一致突出顯著區域”和“突出圖像背景”兩個問題。在進行對比度計算之前,首先實現對比區域預估計的顯著區域檢測方法將成爲下一步的發展趨勢。
  參考文獻:
  [1]ITTI L, KOCH C, NIEBUR E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11):1254–1259.
  [2]MURRAY N, VANRELL M, OTAZU X, et al. Saliency estimation using a non-parametric low-level vision model[C] // IEEE Conference on Computer Vision and Pattern Recognition. 2011:433–440.
  [3]HOU X, ZHANG L. Saliency detection: A spectral residual approach[C] // IEEE Conference on Computer Vision and Pattern Recognition. 2007:1–8.
  [4]BAN S, JANG Y, LEE M. A?ective saliency map considering psychological distance[J]. Neurocomputing, 2011, 74(11):1916–1925.
  [5]LIU T, SUN J, ZHENG N, et al. Learning to detect a salient object[C] // IEEE Conference on Computer Vision and Pattern Recognition. 2007:1–8.
  [6]LIU T, YUAN Z, SUN J, et al. Learning to detect a salient object[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence 33 (2) (2011) 353–367. , 2011, 33(2):353–367.
  [7]KO B C, NAM J Y. Object-of-interest image segmentation based on human attention and semantic region clustering[J]. Journal of Optical Society of America A, 2006, 23(10):2462–2470.
  [8]RUTISHAUSER U, WALTHER D, KOCH C, et al. Is bottom-up attention useful for object recognition?[C] // IEEE Conference on Computer Vision and Pattern Recognition, 2004:30–37.
  [9]ZHANG G X, CHENG M M, HU S M, et al. A shape-preserving approach to image resizing[C] // Computer Graphics Forum, 2009:1897–1906.
  [10]EINHAS?ER W, KO^ENIG P. Does luminance-contrast contribute to a saliency map for overt visual attention?[J]. European Journal of Neuroscience, 2003, 17 (5):1089–1097.   [11]Y. Ma, H. Zhang, Contrast-based image attention analysis by using fuzzy growing[C] // ACM International Conference on Multimedia, 2003:374–381.
  [12]KLEIN D, FRINTROP S. Center-surround divergence of feature statistics for salient object detection[C] // IEEE International Conference on Computer Vision, 2011:2214–2219.
  [13]ACHANTA R, HEMAMI S, ESTRADA F, et al. Frequency-tuned salient region detection[C] // IEEE Conference on Computer Vision and Pattern Recognition, 2009:1597–1604.
  [14]ZHAI Y, SHAH M. Visual attention detection in video sequences using spatiotemporal cues[C] // ACM International Conference on Multimedia, 2006:815–824.
  [15]CHENG M, ZHANG G, MITRA N, et al. Global contrast based salient region detection[C] // IEEE Conference on Computer Vision and Pattern Recognition, 2011:409–416.
  [16]PERAZZI F, KRAHENBUHL P, PRITCH Y, et al. Saliency ?lters: Contrast based ?ltering for salient region detection [C] // IEEE Conference on Computer Vision and Pattern Recognition, 2012:733–740.
  [17]HE X, JING H, HAN Q, et al. Salient region detection combining spatial distribution and global contrast[J]. Optical Engineering, 2012, 51:047007.
  [18]ACHANTA R, SUSSTRUNK S. Saliency detection using maximum symmetric surround[C] // IEEE International Conference on Image Processing (ICIP). 2010:2653–2656.

轉載請註明來源。原文地址:http://www.xzbu.com/8/view-4883143.htm

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章