digital_recognise(二)

從卷積層、激活層、池化層到全連接層深度解析卷積神經網絡的原理 

(參考鏈接:https://www.toutiao.com/a6609148733269475848/

相關層

原理

輸入層

均值化、歸一化、PCA/白化

卷積層

圖片有一個性質叫做局部關聯性質,一個圖片的像素點影響最大的是它周邊的像素點,而距離這個像素點比較遠的像素點二者之間關係不大。這個性質意味着每一個神經元我們不用處理全局的圖片了(和上一層全連接),我們的每一個神經元只需要和上一層局部連接,相當於每一個神經元掃描一小區域,然後許多神經元(這些神經元權值共享)合起來就相當於掃描了全局,這樣就構成一個特徵圖,n個特徵圖就提取了這個圖片的n維特徵,每個特徵圖是由很多神經元來完成的。

激勵層

把卷積層的結果做非線性映射。

池化層

池化層:降低了各個特徵圖的維度,但可以保持大分重要的信息。池化層夾在連續的卷積層中間,壓縮數據和參數的量,減小過擬合,池化層並沒有參數,它只不過是把上層給它的結果做了一個下采樣(數據壓縮)。

全連接層

在全連接層中所有神經元都有權重連接,通常全連接層在卷積神經網絡尾部。當前面卷積層抓取到足以用來識別圖片的特徵後,接下來的就是如何進行分類。 通常卷積網絡的最後會將末端得到的長方體平攤成一個長長的向量,並送入全連接層配合輸出層進行分類。比如,在下面圖中我們進行的圖像分類爲四分類問題,所以卷積神經網絡的輸出層就會有四個神經元。

卷積神經網絡核心

我們可以認爲全連接層之間的在做特徵提取,而全連接層在做分類

 

 

keras系列︱Sequential與Model模型、keras基本結構功能(一)

參考鏈接:https://blog.csdn.net/sinat_26917383/article/details/72857454

 

 

caffe中參數設置的解析

https://blog.csdn.net/u013989576/article/details/70859223

 

TensorFlow中padding卷積的兩種方式“SAME”和“VALID”

最近在用tensorflow搭建卷積神經網絡,遇到了一個比較棘手的問題,我一直理解的padding有兩個值,一個是SAME,一個是VALID,如果padding設置爲SAME,則說明輸入圖片大小和輸出圖片大小是一致的,如果是VALID則圖片經過濾波器後可能會變小。 

 

Python之NumPy(axis=0 與axis=1)區分

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章