3. CNN卷積神經網絡注意點

1.神經網絡訓練

優化方法----SGD隨機梯度下降----Mini-batch SGD

梯度使用一個batch算出來的;如32張;

鏡像不改變內容,提高抗造能力,還可加噪聲;

前向傳播softmax歸一化後可以得到概率值,概率與真實的之間得到互熵損失loss;

反向傳播算法計算一個batch上的梯度,公式含學習率那個

2. CNN中去均值

上邊的--每個像素減均值----均值是每個像素點的三通道的均值----不同點不一樣;

下邊的---得到三個數字----全局的RGB的均值;

3. 權重初始化

若全爲0,無法更新方向權值;

https://blog.csdn.net/qq_15505637/article/details/79362970

4.batch  normalization

激勵層過後的輸入是高斯分佈!

CNN學習出一種約束---滿足以上高斯的分佈;

4.

5.

 

 

6.框架

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章