論文提出新穎的輕量級通道注意力機制coordinate attention,能夠同時考慮通道間關係以及長距離的位置信息。通過實驗發現,coordinate attention可有效地提升模型的準確率,而且僅帶來少量的計算消耗,十分不錯
來源:曉飛的算法工程筆記 公衆號
論文: Coordinate Attention for Efficient Mobile Network Design
Introduction
目前,輕量級網絡的注意力機制大都採用SE模塊,僅考慮了通道間的信息,忽略了位置信息。儘管後來的BAM和CBAM嘗試在降低通道數後通過卷積來提取位置注意力信息,但卷積只能提取局部關係,缺乏長距離關係提取的能力。爲此,論文提出了新的高效注意力機制coordinate attention,能夠將橫向和縱向的位置信息編碼到channel attention中,使得移動網絡能夠關注大範圍的位置信息又不會帶來過多的計算量。
coordinate attention的優勢主要有以下幾點:
- 不僅獲取了通道間信息,還考慮了方向相關的位置信息,有助於模型更好地定位和識別目標。
- 足夠靈活和輕量,能夠簡單地插入移動網絡的核心結構中。
- 可以作爲預訓練模型用於多種任務中,如檢測和分割,均有不錯的性能提升。
Coordinate Attention
Coordinate Attention可看作增強移動網絡特徵表達能力的計算單元,接受中間特徵\(X=[x_1,x_2,\cdots,x_C]\in\mathbb{R}^{C\times H\times W}\)作爲輸入,輸出與\(X\)大小相同的增強特徵\(Y=[y_1,y_2,\cdots,y_C]\)。
Coordinate Attention Blocks
Coordinate Attention基於coordinate information embedding和coordinate attention generation兩個步驟來編碼通道關係和長距離關係。
-
Coordinate Information Embedding
channel attention常用全局池化編碼全局空間信息,將全局信息壓縮成一個標量,難以保留重要的空間信息。爲此,論文將全局池化改造成兩個1維向量的編碼操作。對於輸入\(X\),使用池化核\((H,1)\)和\((1,W)\)來編碼水平方向和垂直方向特徵,即第\(c\)維特徵的輸出爲:
上面的公式從不同的方向集成特徵,輸出一對方向可知的特徵圖。對比全局池化的壓縮方式,這樣能夠允許attention block捕捉單方向上的長距離關係同時保留另一個方向上的空間信息,幫助網絡更準確地定位目標。
-
Coordinate Attention Generation
爲了更好地利用上述的coordinate infomation,論文提出了配套的coordinate attention generation操作,主要基於以下三點準則進行設計:
- 足夠簡單和輕量。
- 能完全利用提取的位置信息。
- 能同樣高效地處理通道間的關係。
首先將公式4和公式5的輸出concatenate起來,使用\(1\times 1\)卷積、BN和非線性激活進行特徵轉化:
\(f\in\mathbb{R}^{C/r\times(H+W)}\)爲包含橫向和縱向空間信息的中間特徵,\(r\)爲縮減因子。這裏兩個方向的特徵沒有做激烈的融合,concatenate的主要目的我覺得是進行統一的BN操作。隨後將\(f\)分爲兩個獨立的特徵\(f^h\in\mathbb{R}^{C/r\times H}\)和\(f^w\in\mathbb{R}^{C/r\times W}\),使用另外兩個\(1\times 1\)卷積和sigmoid函數進行特徵轉化,使其維度與輸入\(X\)一致:
將輸出\(g^h\)和\(g^w\)合併成權重矩陣,用於計算coordinate attention block輸出:
coordinate attention block與se block的最大區別是,coordinate attention block的每個權重都包含了通道間信息、橫向空間信息和縱向空間信息,能夠幫助網絡更準確地定位目標信息,增強識別能力。
Implementation
將coordinate attention block應用於MobileNetV2和MobileNeXt上,block結構如圖3所示。
Experiment
基於MobileNetV2進行模塊設置的對比實驗。
不同注意力結構在不同主幹網絡上的性能對比。
對目標檢測網絡的性能對比。
對語義分割任務的性能對比。
Conclusion
論文提出新穎的輕量級通道注意力機制coordinate attention,能夠同時考慮通道間關係以及長距離的位置信息。通過實驗發現,coordinate attention可有效地提升模型的準確率,而且僅帶來少量的計算消耗,十分不錯。
如果本文對你有幫助,麻煩點個贊或在看唄~
更多內容請關注 微信公衆號【曉飛的算法工程筆記】