原创 神經網絡ResNet訓練CIFAR10數據集
loss在反向傳播的過程中,傳遞到淺層的梯度非常小,使得淺層參數難以更新。resnet引入了殘差單元(residual unit):通過直接和輸入連接,使得淺層的參數變得可以訓練。 bottleneck將左圖中的一個3*3的卷積層,改
loss在反向傳播的過程中,傳遞到淺層的梯度非常小,使得淺層參數難以更新。resnet引入了殘差單元(residual unit):通過直接和輸入連接,使得淺層的參數變得可以訓練。 bottleneck將左圖中的一個3*3的卷積層,改