論文閱讀:Lightweight Pyramid Networks for Image Deraining

稍微整理一下這兩篇輕量級的網絡。內容比較少,也不寫多

2019 T-NNLS:LPNet

這篇文章也是傅雪陽的一篇文章,主要提出了一種輕量級的金字塔網絡。
工程:LPNet

在這裏插入圖片描述

簡而言之,文章簡化了網絡結構,在神經網絡中引入了高斯拉普拉斯金字塔分解技術,採用了遞歸和殘差網絡結構構建網絡,大大減少了網絡參數。

主要創新之處

1、CNN結合經典的高斯-拉普拉斯金字塔技術,提出了一個參數較少、深度較淺、結構簡單的網絡。
2、網絡結合了多尺度技術、遞歸和殘差學習,同時去除了BN。

網絡結構

整體網絡結構:
在這裏插入圖片描述
子網絡:
在這裏插入圖片描述
遞歸模塊:
在這裏插入圖片描述

首先將一個rainy圖像分解成一個Laplacian金字塔,併爲每一層金字塔構建一個子網絡。然後,根據該層數據的具體物理特性,用各自的損失函數對每個子網絡進行訓練。網絡輸出一個去雨後圖像的高斯金字塔。最後得到的結果是高斯金字塔的底層。

具體實現:

1、拉普拉斯金字塔

將含雨圖像X分解成一組N個級別的圖像L:
在這裏插入圖片描述
其中,Gn是高斯金字塔,Gn(X)由Gn-1(X)使用一個高斯核下採樣得到,
且G1(X) = X , L N (X) = G N (X)

2、子網絡

子網絡首先從第n層輸入提取特徵,對應圖中的第一個卷積層:
在這裏插入圖片描述

遞歸模塊:
爲了減少參數的數量,我們以遞歸的方式構建中間推理層,基本思想是在遞歸塊之間共享參數。
經試驗測試,遞歸模塊採用了三個卷積層。
在這裏插入圖片描述

爲幫助傳播信息和反向傳播梯度,第t個遞歸塊的輸出特徵映射Hn,t 由Hn,0相加計算得到;

在這裏插入圖片描述

3、高斯金字塔重建:

拉普拉斯金字塔的輸出:
在這裏插入圖片描述
對應的高斯金字塔的重建的去雨圖像:在這裏插入圖片描述

4、去除BN

BN約束特徵映射服從高斯分佈。
不需要BN來進一步約束特徵映射,因爲映射問題已經變得很容易處理了。
此外,刪除BN層可以充分減少GPU內存的使用,因爲BN層消耗的內存與前面的卷積層相同。
將BN層從我們的網絡中移除,以提高靈活性,減少參數數和計算資源。

5、loss

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章