卷積神經網絡(基礎知識回顧)-第七講

從上篇博客中,我們可以瞭解搭建卷積神經網絡的基礎步驟

 數據輸入層/ Input layer
  • 卷積計算層/ CONV layer
  • ReLU激勵層 / ReLU layer
  • 池化層 / Pooling layer
  • 全連接層 / FC layer

1.數據輸入層
該層要做的處理主要是對原始圖像數據進行預處理,其中包括:
  • 去均值:把輸入數據各個維度都中心化爲0,如下圖所示,其目的就是把樣本的中心拉回到座標系原點上。
  • 歸一化:幅度歸一化到同樣的範圍,如下所示,即減少各維度數據取值範圍的差異而帶來的干擾,比如,我們有兩個維度的特徵A和B,A範圍是0到10,而B範圍是0到10000,如果直接使用這兩個特徵是有問題的,好的做法就是歸一化,即A和B的數據都變爲0到1的範圍。
  • PCA/白化:用PCA降維;白化是對數據各個特徵軸上的幅度歸一化

2.卷積計算層
這一層就是卷積神經網絡最重要的一個層次,也是“卷積神經網絡”的名字來源。
在這個卷積層,有兩個關鍵操作:
  • 局部關聯。每個神經元看做一個濾波器(filter)
  • 窗口(receptive field)滑動, filter對局部數據計算

先介紹卷積層遇到的幾個名詞:
  • 深度/depth(解釋見下圖)
  • 步長/stride (窗口一次滑動的長度)
  • 填充值/zero-padding

有上篇視頻可以很好的瞭解什麼是窗口互動。我們有一個5x5的圖像,我們用一個3x3的卷積核:來對圖像進行卷積操作(可以理解爲有一個滑動窗口,把卷積核與對應的圖像像素做乘積然後求和),得到了3x3的卷積結果。因此步長就很好理解了,就是窗口一次滑動的長度。在全零填充中,5x5的圖像填充爲7x7的圖像,0就爲填充值/zero-padding

圖像深度是指存儲每個像素所用的位數,也用於度量圖像的色彩分辨率。RGB深度爲3

3.激勵層
把卷積層輸出結果做非線性映射。

4.池化層
池化層夾在連續的卷積層中間, 用於壓縮數據和參數的量,減小過擬合。
簡而言之,如果輸入是圖像的話,那麼池化層的最主要作用就是壓縮圖像。

 池化層的具體作用。

1. 特徵不變性,也就是我們在圖像處理中經常提到的特徵的尺度不變性,池化操作就是圖像的resize,平時一張狗的圖像被縮小了一倍我們還能認出這是一張狗的照片,這說明這張圖像中仍保留着狗最重要的特徵,我們一看就能判斷圖像中畫的是一隻狗,圖像壓縮時去掉的信息只是一些無關緊要的信息,而留下的信息則是具有尺度不變性的特徵,是最能表達圖像的特徵。

2. 特徵降維,我們知道一幅圖像含有的信息是很大的,特徵也很多,但是有些信息對於我們做圖像任務時沒有太多用途或者有重複,我們可以把這類冗餘信息去除,把最重要的特徵抽取出來,這也是池化操作的一大作用。

3. 在一定程度上防止過擬合,更方便優化。

 

 

參考:https://blog.csdn.net/wuyujundy/article/details/78743459

轉載於:https://www.cnblogs.com/fcfc940503/p/11061215.html

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章