【Caffe】Blobs數據結構的Python表示

注:本文轉載自http://blog.csdn.net/jinxueliu31/article/details/52066709
Caffe主要處理兩種形式的數據流:
1. 圖像和標籤在網絡上的傳輸,隨着網絡的傳輸,它們轉化更高層次的表示,最終以得分或者概率值的形式輸出。
2. 第二種數據流,主要保存各個網絡層的參數,比如卷積層的weights和bias. 這些值是隨着的網絡的訓練過程不斷變化的。
這兩種數據流雖然說角色不一樣,但是都是以blob的形式進行保存和處理的。
下面以手寫體LeNet爲例:

import os
import numpy as np
import caffe

caffe_root = '/path/your/caffe'
os.chdir(caffe_root)

solver_prototxt = 'examples/mnist/lenet_solver.prototxt'
solver = caffe.SGDSolver(solver_prototxt)
net = solver.net

第一種形式的數據流保存在net.blobs中
net.blobs是有序字典,保存了每一層對應的數據。每個blob保存了data和gradient:

net.blobs['data'].data.shape  # >> (64, 1, 28, 28)
net.blobs['data'].diff.shape  # >> (64, 1, 28, 28)

net.blobs['conv1'].data.shape  # >> (64, 20, 24, 24)
net.blobs['conv1'].diff.shape  # >> (64, 20, 24, 24)

net.blobs['ip1'].data.shape  # >> (64, 500)
net.blobs['ip1'].diff.shape  # >> (64, 500)

第二種形式的數據流可以通過net.layers來獲得
net.layers

這是一個caffe形式的向量,保存了各層的參數。它的第一層是data layer:
len(net.layers[0].blobs) # >> 0

因爲輸入層沒有權重參數,因此blob的個數是0
它的第二層是卷積層:
len(net.layers[1].blobs) # >> 2

net.layers[1].blobs[0].data.shape # >> (20, 1, 5, 5) conv1 weights
net.layers[1].blobs[1].data.shape # >> (20,) bias

表示有20個卷積核,每個卷積核的大小是5*5,處理1-channel的輸入圖像。
另一種獲得各層參數的方式就是
net.params
print net.params['conv1'][0].data.shape # (20, 1, 5, 5) conv1 weights
print net.params['conv1'][1].data.shape # (20,) bias

這種方式更直觀。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章