下列代碼中沒註釋的部分看這篇
### 在激活層中,對輸入數據進行激活操作,是逐元素進行運算的,在運算過程中,沒有改變數據的大小,即輸入數據和輸出數據大小是相等的
### Sigmoid
layer{
name:"test"
bottom:"conv"
top:"test"
type:"Sigmoid"
}
### Relu是目前使用最多的激活函數,主要因爲收斂更快,並且能保持同樣的效果。
### 標準的Relu函數爲max(x,0),當x>0時,輸出x,當x<0時,輸出0
f(x)=max(x,0)
layer{
name:"relu1"
type:"Relu"
bottom:"pool1"
top:"pool1"
}
其他網絡配置文件: