NTIRE2018比賽中8倍的bicubic第一名,PIRM2018比賽中Region 2的第一名
主要是採用了誤差反饋機制,類似於在每個深度下做CycleGAN
以上採樣單位爲例:
輸入低分辨率image,經過Deconv上採樣得到H0,H0經過Conv得到L 大小的L0,計算輸入低分辨率圖像與通過Deconv-Conv生成的低分辨率圖像之間的誤差,將誤差輸入Deconv上採樣得到誤差的高分辨率大小圖像,將輸入L_image通過Deconv生成的H0與誤差生成的H1相加得到H。
針對四種超分辨率網絡結構做了對比說明
先插值:代表有SRCNN VDSR DRRN,缺點是插值過程引入噪聲
一次插值:FSRCNN ESPCN 網絡容量有限,無法進行復雜學習如EDSR,需要每層有大量filter 訓練時間長,大部分網絡結構都採用該種方法
逐步插值:LapSR 效果比較好,但是參數多
交替上下采樣:DBPN 提高不同深度採樣率,在各階段計算重構誤差,輕量級是重點。
DBPN也採用了稠密連接
網絡結構介紹到這裏
在損失函數上,應該是比賽產物吧損失函數只計算了MSE,簡單粗暴。論文中也介紹可以用對抗損失 感知損失 就是沒用。