ResNeSt網絡結構概要解讀

本篇主要介紹ResNeSt,其他相關係列及其變體見如下blog目錄

ResNet系列及其變體目錄


ResNeSt: Split-Attention Networks

enables attention across feature-map groups,提出Split-Attention模塊。


背景知識

基於Multi-path and Feature-map Attention。

SE-Net、SK-Net和 論文提出的ResNeSt block結構圖如下 :

在這裏插入圖片描述


Split-Attention Block

Feature-map Group
feature map被分爲多個group,每個group又進行分組。
超參數K:表示group數目( cardinality hyperparameter)
超參數R:表示基數組內的split數(radix hyperparameter)
總feature map的group數 G=KRG=KR

對每一個group,transformations {F1,F2,...,FG}\{\mathcal F_1, \mathcal F_2, ...,\mathcal F_G\}Ui=Fi(x),for i{1,2,..,G}U_i=F_i(x), for\text{ } i\in\{1,2,..,G\}

在這裏插入圖片描述

Split Attention in Cardinal Groups

  • U^k=j=R(k1)+1RkUj\hat U^k =\sum^{Rk}_{j=R(k-1)+1} U_j
    其中,U^kRH×W×C/K\hat U^k \in\Bbb R^{H\times W\times C/K},for k1,2,...Kk ∈ 1, 2, ...K
    c=C/Kc=C/K

  • Global pooling.

  • r-Softmax

  • 融合
  • 等價轉換

在這裏插入圖片描述

網絡調整


訓練策略

  • Large Mini-batch
  • Label Smoothing
  • 學習率根據餘弦調整
  • Auto Augmentation
  • Mixup Training
  • Large Crop Size:256
  • Regularization :dropout/DropBlock/L2 regularization

Result

在這裏插入圖片描述

在這裏插入圖片描述

在這裏插入圖片描述

在這裏插入圖片描述

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章