LSAE:Learning Shape-Aware Embedding for Scene Text Detection 場景文本檢測----論文閱讀筆記

論文題目:Learning Shape-Aware Embedding for Scene Text Detection

香港中文大學和騰訊優圖共同發表在2019CVPR

論文地址:jiaya.me/papers/textdetection_cvpr19.pdf

貢獻

  1. 提出了Shape-Aware Loss,可以很好的分割相鄰的文本實例並且可以檢測很大很長的文本實例(將圖像像素映射到嵌入特徵空間中,在該空間中,屬於同一文本實例的像素會更加接近彼此,反之不同文本實例的像素將會遠離彼此)。
  2. 提出了一種新的文本檢測流程,可以檢測任意形狀的文本實例。
  3. 在三個有代表性的場景文本數據集(ICDAR15,,MSRA-TD500,and CTW1500)上表現優異。

網絡結構

首先,給定輸入圖像,從ResNet50的中間層提取特徵;接下來,有兩個特徵合併模塊(鏡像對稱的FPN),在每個特徵合併模塊中,使用類似於 PANet 中的自適應特徵池的特徵合併策略通過上採樣和像素相加的方式去結合從不同層提取的特徵。這兩個分離的特徵合併模塊通過共享權重形成了一組獨立但互補的分支。一個分支產生嵌入映射(Embedding Map),在每個像素處有8通道嵌入特徵用於區分文本實例,另一個分支生成用於分割的兩個文本前景掩模(Center Map 和 Full Map)。最後,對嵌入特徵和兩個文本前景掩模進行處理獲得最終預測的文本框。

[外鏈圖片轉存失敗(img-zpSQT5rp-1562658585053)(./網絡結構.png)]

嵌入形狀感知(Shape-Aware Embedding)

爲什麼要使用嵌入形狀感知?

  1. 相比與通用的目標檢測,文本檢測更難根據邊界確定兩個挨的很近的文本實例;
  2. 文本行的寬高比變化太大,如整張圖像從單個文字到整個文本行。

嵌入分支接收來自一個特徵合併模塊的特徵,以及由 x 和 y 座標表示的另外的2通道位置信息。 我們將特徵合併模塊的特徵與位置信息相結合,並將它們分別傳遞給三個連續的3×3卷積層,分別具有32,16和8個輸出通道。 最終輸出是每個像素的8通道嵌入特徵。

損失函數(SA Loss)

方差損失和距離損失(應該可以說是類內間距和類外間距):
Lvar(Ij)=1Nji=1Njmax(WScale(j)μjxiη,0) L_{var}(I_j) = \frac{1}{N_j}\sum_{i=1}^{N_j}max(W_{Scale_{(j)}} * |\mu_j - x_i| - \eta, 0)

Ldist(Ij,Ik)=max(γWDist(j,k)μjμk,0) L_{dist}(I_j, I_k) = max(\gamma - W_{Dist_(j, k)} * |\mu_j - \mu_k|, 0)

μj\mu_jμk\mu_k 分別是文本實例 IjI_jIkI_k 的平均嵌入。xix_i 是像素 ii 的嵌入特徵,NjN_j 是在 IjI_j 中的像素的數量。η\etaγ\gamma 代表方差損失和距離損失的邊際,分別爲 0.50.51.51.5

其中 WScale(j)W_{Scale_{(j)}}WDist(j,k)W_{Dist_{(j, k)}}​ 是平衡權重,爲了適應各種文字形狀和鄰接。
WScale(j)=emaxside(j)2max(h,w) W_{Scale{(j)}} = e^{\frac{max_{side(j)}}{2max(h,w)}}

WDist(j,k)=(120emin(Distancej,k)max(h,w)10) W_{Dist_{(j,k)}} = (1 - 20e^{-\frac{min(Distance_{j,k})}{max(h,w)} * 10})

max(h,w)max(h,w) 是輸入圖像的較長邊。maxside(j)max_{side(j)} 對於四邊形文本是長邊的長度,對於彎曲文本(帶有多邊形註釋)是多邊形頂點之間的最長距離。min(Distancej,k)min(Distance_{j,k}) 是文本實例 IjI_jIkI_k 之間的最短距離。其中 WSacle(j)(1,1.65)W_{Sacle_{(j)}} \in (1, 1.65)WDist(j,k)W_{Dist_{(j,k)}} 的範圍大致在 (0.63,1)(0.63, 1) 之間,WDist(j,k)W_{Dist_{(j,k)}} 的縮放比例和 WScale(j)W_{Scale_{(j)}}​ 相當以平衡他們對梯度的影響。

WScale(j)W_{Scale_{(j)}}​ 與文本實例 IjI_j​ 的尺度成比例,大的 WScale(j)W_{Scale_{(j)}}​ 使得 Lvar(Ij)L_{var}(I_j)​ 變得重要,這會帶來強大的力量把像素之間的距離拉近(pulling),以至於有較小的 Lvar(Ij)L_{var}(I_j)​WDist(j,k)W_{Dist_{(j, k)}}​ 與文本實例 IjI_j​IkI_k​ 中最短的距離成比例,這會有額外的力量把兩個離得近的文本實例給推開(pushing),距離變遠。與 WScale(j)W_{Scale_{(j)}}​ 相反,一個小的 WDist(j,k)W_{Dist_{(j, k)}}​ (在 IjI_j​IkI_k​ 之間的短距離)會讓 LDist(Ij,Ik)L_{Dist}(I_j, I_k)​ 變大。

一張圖像有 NN 個文本實例的話,最終的 SA Loss 可以寫成:
LSA=1Nj=1NLvar(Ij)+1N(N1)j=1Nk=1,kjNLdist(Ij,Ik) L_{SA} = \frac{1}{N}\sum_{j=1}^N L_{var}(I_j) + \frac{1}{N(N-1)\sum_{j=1}^N\sum_{k=1,k\neq j}^N L_{dist}(I_j, I_k)}
SA Loss包含兩個權重,它們根據尺度和鄰接調節拉和推的力量。利用這兩個權重,即使兩個很近的文本實例(只有一兩個像素的距離),聚集大的長的文本實例和分割比較近的文本實例也變得更加容易了。

分割掩碼(Segmentation Masks)

分割分支通過對先前模塊生成的特徵使用兩個單獨的 3x3 卷積運算,生成兩個一維通道的分割圖:Full Map和Center Map。儘管兩個分割圖都表明像素是屬於背景還是文本,但他們用於不同的目的。Full Map顯示文本的整體位置和分佈,Center Map僅捕獲每個文本的中線區域,允許分離空間上緊密的文本實例,併爲稍後的像素聚類提供合理的起點。

損失函數

Full Map 和 Center Map都是通過最小化 Dice Loss來訓練的:
LD=1D(P,Q) L_D = 1 - D(P, Q)
其中,PPQQ 分別代表預測(Prediction)和真值(Ground Truth),D(,)D(,) 是 Dice 係數,表示爲:
D(P,Q)=2x,yPx,yQx,yx,yPx,y2+x,yQx,y2 D(P, Q) = \frac{2 * \sum_{x, y}P_{x,y}Q_{x,y}}{\sum_{x,y}P_{x,y}^2 + \sum_{x,y}Q_{x,y}^2}
最終損失是兩個map的加權組合,λ(0,1)\lambda \in (0,1):
LSeq=λLCenterMap+(1λ)LFullMap L_{Seq} = \lambda L_{CenterMap} + (1-\lambda)L_{FullMap}
在論文中設置 λ=0.5\lambda = 0.5​ ,給兩個map相同的權重。注意,Center Map 的文本實例是從Full Map的文本實例中按比例 γ\gamma​ 縮小而來的,一般 γ=0.7\gamma = 0.7​ ,這和 EAST 是相同的。在Full Map中的文本實例不通過縮小去減少搜索空間,確保在有效的文本區域內執行後續聚類。

整體損失函數

L=LSA+LSeg L = L_{SA} + L_{Seg}

聚類處理

[外鏈圖片轉存失敗(img-K1KlYGVU-1562658585055)(./像素聚類.png)]

首先使用DBSCAN來獲得兩組聚類(來自Full Map的 CFiC_{F_i}​和來自Center Map的 CCi=jcijC_{C_i} = \cup_j c_{ij}​)。然後通過以下邏輯將 CFiC_{F_i}​ 內部和 CCiC_{C_i}​ 外部的每個像素分配給最近的集羣 cijCCic_{ij} \in C_{C_i}​。將分配給了 cijc_{ij}​ 的像素表示爲pcijp_{c_{ij}}​,如果這個像素和一個集羣 cijCCic_{ij} \in C_{C_i}​ 的最小嵌入距離比閾值 σ\sigma​ 還要小,則這個像素被分配到最近的集羣 cijc_{ij}​ 作爲 pcijp_{c_{ij}}​ 的一部分;否則這個像素就被忽視了(就是基於像素嵌入和屬於Center Map的每個集羣 cijc_{ij}​ 的像素的平均嵌入之間的距離來分配每個像素(cijCCiCFic_{ij} \in C_{C_i} \in C_{F_i}​))。在處理完集羣 CFiC_{F_i}​ 中的所有像素之後,一個新的集羣 cij=cijpcijc_{ij}' = c_{ij} \cup p_{c_{ij}}​ 就形成了。對其他的中心集羣 cijc_{i j}​ 不斷的循環這個操作直到處理完所有的中心集羣。

最後,對於每個新集羣 cijc_{ij}',生成相應的最小邊界框作爲輸出。

實現細節

主幹網絡 ResNet50(在ImageNet上預訓練),對於每一個分支,在ResNet50的四個特徵圖(Max Pooling後)上使用四個具有128個輸出通道 inception 模塊。

使用數據增強。首先隨機的將輸入圖像的長邊縮放到 640 到 2560 之間,然後隨機旋轉,顛倒和翻轉,最後從旋轉後的圖像中隨機剪切 640×640640 × 640​ 的區域作爲訓練圖像。包括 BN(Batch Normalization)和 OHEM(正樣本和負樣本比例爲 1:31:3​)。全部的模塊都在數據集 SynthText 上使用初始學習率 1e41e-4​ 做預訓練。

有5個超參數。用來測量 Embedding Map 上的嵌入距離的閾值 σ\sigmaτ\tau, 並在後處理中分別從分割圖像中獲取確定的像素。用於NMS的 IoUIoU 閾值 δ\delta 和用於DBSCAN的 epsepsMinSamplesMinSamples。論文中,σ=1.0,τ=0.7,δ=0.5\sigma = 1.0, \tau = 0.7, \delta = 0.5,並且 (eps,MinSamples)(eps, MinSamples)在Full Map上聚類時是 (5,8)(5,8),在Center Map上聚類時是 (1,3)(1,3)


接下來論文比較了論文方法和其他的文本檢測方法;Shape-Aware Loss的優點(與Dice Loss比較);爲什麼不直接在嵌入空間中使用聚類;網絡設計的優點(Full Map和Center Map的重要性以及雙分支網絡的優點)等等。【懶,就不具體寫了】


讀完之後還有一些部分不太清楚(可能文章沒有詳細描述或者自己沒有理解清楚):

  1. 最後的三個Map的輸入是對稱的 FPN 輸出的哪個Feature Map,還是最後把FPN所有的Feature Map合併在一起作爲輸入?

  2. 在實現細節裏,在ResNet50的四個特徵圖上使用四個具有128輸出通道的inception模塊是怎麼使用的?

  3. 在輸出Embedding Map時,是將分支出來的Feature Map和位置信息結合起來的,是怎麼結合的?位置信息又是怎麼表示的(文本框和非文本框)?

    或許可以看看 Semi-convolutional Operators for Instance Segmentation這篇文章,我還沒看,這裏有關於這篇文章的理解

  4. 5個超參數有一個 τ\tau 是哪裏的,在論文了沒有找到。。。

如有大神,望可以交流交流,解決我的疑惑。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章