Paper read weekly(Four)

9月來了。

時光匆匆,洗去總是鉛華,越淘越閃光的那就是真心了。

前段時間關注了諸如Unet/hourglass,很重要的insight就是網絡對稱、網絡設計成塊以及塊的堆疊。但簡單的堆疊並不work。
這周讀的paper是《Stacked Deconvolutional Network for Semantic Segmentation》,有如下的contribution:

  • Densenet+stacked-hourglass的結合,在堆疊網絡之前用一個較深的網絡做特徵提取器。一方面可以在既有的預訓練模型上進行finetune,一方面使得特徵的提取更加的有效;

  • skip connection的升級——不僅僅在塊內做skip connection的操作,而且還有塊間的skip connection。同時靠近輸入端的特徵提取器的底層特徵也會根據相應輸出尺寸和後續的堆疊塊的對應尺寸大小的feature map做融合;

  • inertmediate loss的運用——分爲兩種情況:

    • end-to-end——堆疊塊的特點在於,每個塊都會有一個預測輸出,這些輸出都可以拿來和ground truth做loss,所有loss加在一起,抑或加權加在一起,和final predicted output的loss一起bp,更新網絡。

    • 分級遞進訓練——即先訓練好前端的網絡,然後固定訓練好的網絡,接着訓練後邊的網絡。

接着就來看看這篇paper的樣子啦。網絡結構如下:用DenseNet161做第一個Stakced Deconvolutional Network(SDN)的encoder;後續的encoder和decoder分別是downsampling block和deconvolution block;然後就是skip connection的了,看示意圖就很明顯了。

這裏寫圖片描述

這其中重複利用的塊就是encoder和decoder。他們包含的基本層有maxpooling(deconvolution)/conv/compression。其中的pooling/deconv層後會融合前邊的densenet和SDN的特徵,而單個SDN裏也會有skip connection。

這裏寫圖片描述

最重要的是在每個compression層會做intermediate loss。而這個loss雖然是簡單的cross-entropy loss,但值得注意的loss的變量項卻有所不同,因爲loss的變量項也借鑑了feature map fusion,會fusion前邊塊的predicted output,一起做loss。厲害了吧。。。

這裏寫圖片描述

像這種不同網絡的融合和網絡塊的堆疊思想還是很值得借鑑的,但end-to-end的方法還是有些粗暴,網絡訓練策略的選擇也會更困難。所以,分級遞進訓練更值得嘗試吧。


又看到丫頭姐姐剛出生不久的小公舉了。不到半個月,小寶貝變化好大:水汪汪的大眼睛眨起來超有愛;熟睡的樣子也特安靜聽話,真好~

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章