稍微整理一下這兩篇輕量級的網絡。內容比較少,也不寫多
2019 T-NNLS:LPNet
這篇文章也是傅雪陽的一篇文章,主要提出了一種輕量級的金字塔網絡。
工程:LPNet
簡而言之,文章簡化了網絡結構,在神經網絡中引入了高斯拉普拉斯金字塔分解技術,採用了遞歸和殘差網絡結構構建網絡,大大減少了網絡參數。
主要創新之處
1、CNN結合經典的高斯-拉普拉斯金字塔技術,提出了一個參數較少、深度較淺、結構簡單的網絡。
2、網絡結合了多尺度技術、遞歸和殘差學習,同時去除了BN。
網絡結構
整體網絡結構:
子網絡:
遞歸模塊:
首先將一個rainy圖像分解成一個Laplacian金字塔,併爲每一層金字塔構建一個子網絡。然後,根據該層數據的具體物理特性,用各自的損失函數對每個子網絡進行訓練。網絡輸出一個去雨後圖像的高斯金字塔。最後得到的結果是高斯金字塔的底層。
具體實現:
1、拉普拉斯金字塔
將含雨圖像X分解成一組N個級別的圖像L:
其中,Gn是高斯金字塔,Gn(X)由Gn-1(X)使用一個高斯核下採樣得到,
且G1(X) = X , L N (X) = G N (X)
2、子網絡
子網絡首先從第n層輸入提取特徵,對應圖中的第一個卷積層:
遞歸模塊:
爲了減少參數的數量,我們以遞歸的方式構建中間推理層,基本思想是在遞歸塊之間共享參數。
經試驗測試,遞歸模塊採用了三個卷積層。
爲幫助傳播信息和反向傳播梯度,第t個遞歸塊的輸出特徵映射Hn,t 由Hn,0相加計算得到;
3、高斯金字塔重建:
拉普拉斯金字塔的輸出:
對應的高斯金字塔的重建的去雨圖像:
4、去除BN
BN約束特徵映射服從高斯分佈。
不需要BN來進一步約束特徵映射,因爲映射問題已經變得很容易處理了。
此外,刪除BN層可以充分減少GPU內存的使用,因爲BN層消耗的內存與前面的卷積層相同。
將BN層從我們的網絡中移除,以提高靈活性,減少參數數和計算資源。
5、loss
分