前饋去噪卷積神經網絡——DnCNNs——高斯降噪器、MatConvNet

博客 https://blog.csdn.net/u010493489
郵箱 [email protected]
歡迎交流

參考文獻:https://ieeexplore.ieee.org/abstract/document/7839189


利用前饋去噪卷積神經網絡來去噪


使用CNN的三個優勢:
1、增加利用圖像特徵的容量和靈活性
2、CNN的正規化和學習方法的進展:整流器線性單元(ReLU)、批量歸一化和殘差學習
3、GPU加速

DnCNNs:預測殘留圖像
SISR:單圖像的超分辨率

有效的高斯降噪器

,**
1、高斯降噪圖像轉化爲單個圖像超分辨率的問題
噪聲 v 是地面真實高分辨率圖像和低分辨率圖像的雙三次上採樣之間的差異,高斯降噪的圖像劣化模型可以轉換爲單個圖像超分辨率(SISR)問題
2、JPEG圖像去塊問題可以通過相同的圖像劣化模型來建模v 作爲原始圖像和壓縮圖像之間的差異。

圖像超分辨率(mage Super Resolution):圖像超分辨率是指由一幅低分辨率圖像或圖像序列恢復出高分辨率圖像。圖像超分辨率技術分爲超分辨率復原和超分辨率重建。目前, 圖像超分辨率研究可分爲 3個主要範疇: 基於插值、 基於重建和基於學習的方法.

本文研究:通過擴展DnCNN來處理圖像去噪:高斯去噪,SISR和JPEG圖像去塊

相關工作

A。用於去噪的深度神經網絡 CNN MLP MRF K-SVD TNRD BM3D
B. 殘差學習和批量標準化(DnCNN的兩種方法)
CNN模型訓練的優勢:整流線性單元(ReLU),深度和寬度之間的權衡,參數初始化,基於梯度的優化算法],批標準化和殘餘學習。
對於高斯去噪,很容易從一組高質量圖像中生成足夠的訓練數據。
殘差學習:
CNN的殘差學習提出用於解決性能退化的問題。
而DnCNNs使用單個殘差單元來預測殘留圖像。
批量歸一化:在每層中的非線性之前引入歸一化步驟和縮放和移位步驟來減輕內部協變量偏移。

提出的去噪CNN模型——DnCNN

訓練深度CNN模型的兩個步驟
1)網絡架構設計,通過修改VGG網絡以使得適用於圖像去噪,並使用有效色塊大小設置網絡的深度。
2)從訓練數據學習模型
採用殘差學習公式,並將其與批量歸一化相結合,實現快速訓練和改進的去噪性能。

A

網絡深度
卷積濾波器設置爲33,刪除所有池化層。
DnCNN的感受野深度d 應該爲:(2d+1)
(2d+1)
增加感受野大小能有效利用更大的圖像區域的上下文信息。
選擇合適的深度,可以在性能和效率之間權衡
固定噪音水平σ= 25
感受野大小設置爲35*35,相應深度爲17
對於其他一般圖像去噪,採用更大感受野,深度設置爲20

B

網絡架構
網絡的輸入爲嘈雜的圖像y = x+v。
對於MLP,CSF等判別性去噪模型旨在學習映射函數:F(y) = x去預測潛在的清潔函數。
對於Dn CNN,用殘差學習公式來訓練殘差映射
殘差學習公式:R(y) ≈ v,
進而得到情節圖像x = y − R(y)
所需殘差圖像與噪聲輸入的估計殘差圖像之間的平均均方誤差公式:
在這裏插入圖片描述
可以採用損失函數來學習可訓練的參數。

在這裏插入圖片描述
圖一:用於學習的所提出的DnCNN的架構

DnCNN體系結構和減少邊界僞影的策略
1、深層架構
DnCNN具有深度d的三種類型的圖層,悠三種不同 顏色
1)Conv+ReLU, 對於第一層,64個過濾器33c用於生成64個特徵映射,並校正線性單位。C表示圖像通道的數量,
c=1 用於灰度圖像
c=3 用於彩色圖像
2)Conv+BN+ReLU 對於2----(D-1)層,64個過濾器大小爲3364,並在卷積和ReLU之間添加批量標準化。
3)Conv, 對於最後一層,即D層,C過濾器大小3363用於重建輸出
2、減少邊界僞影
要求輸出圖像大小與輸入圖像大小保持一致,可能導致邊界僞影。
在DnCNN中,俊基之前至今填充0,確保中間層的每個特徵圖具有與輸入圖像相同的大小。簡單的0填充策略不會導致任何邊界的僞影。

C 用於圖像去噪的殘差學習和批量歸一化的集成

說明R(y) ≈ v更適合圖像去噪
圖2
基於梯度的優化算法和網絡體系結構的相同設置下
基於梯度的優化算法 (1)具有動力的隨機梯度下降算法(SGD)
(2)Adam算法
說明了殘差學習和批量歸一化的整合可以提高去噪性能。

D 與TNRD的聯繫

在這裏插入圖片描述
許多類型的噪聲分佈,例如廣義高斯分佈。很自然地認爲它也適用於由SISR和JPEG壓縮引起的噪聲。可以針對若干一般圖像去噪任務訓練單個CNN模型,例如具有未知噪聲水平的高斯去噪,具有多個放大因子的SISR,以及具有不同質量因子的JPEG去塊。

E.擴展到一般圖像去噪

訓練各種噪聲水平的噪聲圖像
給定噪聲水平屬於噪聲水平範圍的測試圖像

去噪任務:
1、盲高斯去噪
2、SISR
3、JPEG解塊

訓練時,利用來自各種噪聲水平的AWGN圖像,具有多個放大因子的下采樣圖像和具有不同質量因子的JPEG圖像來訓練單個DnCNN模型。

第四節 實驗結果

A 實驗設置

訓練和測試數據
1、高斯去噪
已知或未知噪聲水平的高斯去噪,採用400個大小的圖像 180180來訓練。()
然後評估68個自然圖像的標準測試數據集上的去噪性能。
噪聲水平在【0,55】,補丁帶下爲50
50用於訓練單個DnCNN模型用於盲高斯去噪。 盲高斯去噪的單個DnCNN成爲DnCNN-B。
2、使用測試圖像來對方法的性能進行評估。
伯克利分割數據集BSD68的68個自然圖像的測試數據集,和另外12個常用圖像

這些圖像廣泛用於評估高斯去噪方法,並不在訓練數據中。

盲彩色圖像去噪模型,成爲CDnCNN-B
使用BSD68數據集的彩色版本進行測試,並採用Berkeley分割數據集中剩下的432個彩色圖像作爲訓練。
3、將三個一般圖像去噪任務的單個DnCNN模型成CDnCNN-3

使用MatConvNet軟件包[44]來訓練提出的DnCNN模型。
表2:BSD68數據集上不同方法的平均PSNR(dB)結果
表3: 12個測試圖像上不同方法的PSNR結果

DnCNN-S和DnCNN-B不僅可以恢復鋒利的邊緣和精細的細節,而且還可以在平滑區域產生視覺上令人愉悅的結果。

E.學習單個模型進行三種一般圖像去噪任務的實驗

對於高斯去噪,我們使用最先進的BM3D和TNRD進行比較。BSD68數據集用於測試性能。對於BM3D和TNRD,我們假設噪聲水平是已知的。

對於SISR,我們考慮兩種最先進的方法,即TNRD和VDSR。TNRD訓練了每個上升因子的特定模型,而VDSR 訓練了所有三個升級因子(即2,3和4)的單個模型。採用四個測試數據集(即Set5和Set14,BSD100和Urban100 )。

對於JPEG圖像解塊,我們將DnCNN-3與兩種最先進的方法進行比較,即AR-CNN [48]和TNRD 。AR-CNN方法分別訓練了JPEG質量因子10,20,30和40的四種特定模型。對於TNRD,訓練了三個用於JPEG質量因子10,20和30的模型。採用Classic5和LIVE1作爲測試數據集。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章