caffe中的 AlexNet,LeNet,CaffeNet

AlexNet LeNet caffenet CaffeNetConv
這裏寫圖片描述 這裏寫圖片描述 這裏寫圖片描述 這裏寫圖片描述

LeNet

在ip1上使用ReLU( Rectified-Linear )激活函數,ReLU是目前使用最多的激活函數,主要因爲其收斂更快,並且能保持同樣效果。

標準的ReLU函數爲max(x, 0),當x>0時,輸出x; 當x<=0時,輸出0

f(x)=max(x,0)

層類型:ReLU

可選參數:

  negative_slope:默認爲0. 對標準的ReLU函數進行變化,如果設置了這個值,那麼數據爲負數時,就不再設置爲0,而是用原始數據乘以negative_slope

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章