深度學習的一些網絡(論文內容)

卷積神經網絡的基本結構的組合形成了許多經典網絡結構。
分類任務輸入未知分類的目標圖片,經過網絡處理後給出對應圖像類別。分類任務中使用的網絡結構大多各不相同,研究者會針對不同的數據和分佈情況設計適合的網絡結構,但大多會借鑑自然圖像中較常用的兩類網絡GoogleNet和ResNet,—些較早的研究大多借鑑AlexNet的網絡結構。
2.2.1 GoogleNet主要結構

2014年提出的GoogleNet在ImageNet圖像識別比賽中蕕得最好成績,其中最大的創新點在於Inception模塊。一般來說網絡的深度越深,參數量越大,所能表達的模型越複雜,相對來說網絡的性能會提升。但實際中,由於訓練樣本數量有限,過多的參數反而影
響模型的泛化性能,導致網絡出現過擬合,同時過深的網絡由於梯度消失問題難以有效訓練。而Inception模塊可以在減少網絡參數的同時提升特徵提取能力。最早的Inception模塊如圖2.2所示,包含4組卷積通道,均由卷積和池化層組成,其中三組通道使用純卷積層,分別使用1*1、3*3、5*5卷積核,其中3*3、5*5卷積核前還加入了1*1的卷積核進行通道數的改變以減少通道數較多時的計算量,最後一組使用了一個3*3的最大池化層和一個1*1的卷積層提取高層信息。通過調整填充使得四組通道輸入輸出的大小一致,最後將四組通道的輸出連接並作爲模塊輸出傳入下層。GoogleNet通過串聯多個Inception模塊組成了很深的網絡,達到了很好的分類效果。訓練時爲了有效進行梯度反向傳播利用中間層構造了輔助Softmax分類器輸出圖像的標籤預測,通過與真實標籤值計算損失從中間層輸出用於反向傳導的梯度。不同尺度的卷積層形成了不同的感受野,這使得Inception模
塊能同時提取不同尺度的信息,同時1*1卷積核的利用減少了參數量,降低了模型複雜度,這使得GoogleNet比之前的Vgg網絡深的同時使用的參數量更少。GoogleNet還用了平均池化層部分替代全連接層來減少參數量,降低網絡的過擬合。

圖2.2 Inceptionv1模塊                       圖2.3 Inceptionv2模塊                 圖2.4 Inceptionv3模塊

後續的研究發現大卷積核的效果可以通過連續的小卷積核的卷積層替代,因而在第二代的Inception模塊中作者利用連續的3*3卷積來替代5*5卷積,模塊結構如圖2.3所示。在保持與之前結構相同效果的同時減少了模型參數,使用兩個3*3的卷積核替代一個5*5的卷積核可以減少30%的參數。

GoogleNet作者通過研究證明繼續減小卷積核也不會對模型表達能力造成損失,第三代Inception模塊用兩個3*1卷積替代3*3卷積,進一步分解卷積,可再減少約30%的參數,在通道數較多的時候能有效減少模型複雜度。同時更多的卷積層會引入更多非線性激活,進而能提升模型的性能,但這樣的替代在淺層網絡上使用效杲不佳。

2.2.2 Rsenet主要結構
2015提出的ResNet在ImageNet圖像識別比賽中獲得了更好的成績,主要的創新在於殘差模塊。不同於GoogLeNet將網絡變寬來解決深度問題,ResNet提出的殘差結構使得網絡的深度不再是訓練的障礙。殘差模塊如圖2.5所示,通常由兩個卷積層組成,每一個卷積層後有一個批量歸一化層和一個relu激活層,輸入跳過兩個卷積層後與第二個批量歸一化層的輸出相加。如杲相加時通道數不同則將輸入經過1*1的卷積層進行調整後相加。殘差模塊的原理是將一個映射的學習轉化爲一個恆等映射和一個殘差之和的學習,如式(2.11)所示,每一層網絡學習的是目標函數與上一層的殘差,而當損失反向傳播時由於恆等部分的存在,可以保證始終有梯度能穿遞到上一層,避免了梯度消失的問題。通過雄疊殘差模塊可以快速構建極深的網絡,同時仍然保持良好的可訓練性。殘差模塊也採用了1*1的卷積梭進行通道調整的卷積運算,對通道數量較多的深層殘差模塊先通過1*1卷積核降低通道數,經過3*3卷積後再使用1*1卷積核恢復通道數,如圖2.5右圖所示。後續的研究對卷積層、批量歸—化層、激活層之間的順序進行了調整,提升了模塊的性能。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章