Caffe學習系列:caffemodel可視化

通過前面的學習,我們已經能夠正常訓練各種數據了。設置好solver.prototxt後,我們可以把訓練好的模型保存起來,如 lenet_iter_10000.caffemodel。 訓練多少次就自動保存一下,這個是通過snapshot進行設置的,保存文件的路徑及文件名前綴是由snapshot_prefix來設定的。這個文件裏面存放的就是各層的參數,即net.params,裏面沒有數據(net.blobs)。順帶還生成了一個相應的solverstate文件,這個和caffemodel差不多,但它多了一些數據,如模型名稱、當前迭代次數等。兩者的功能不一樣,訓練完後保存起來的caffemodel,是在測試階段用來分類的,而solverstate是用來恢復訓練的,防止意外終止而保存的快照(有點像斷點續傳的感覺)。既然我們知道了caffemodel裏面保存的就是模型各層的參數,因此我們可以把這些參數提取出來,進行可視化,看一看究竟長什麼樣。

我們先訓練cifar10數據(mnist也可以),迭代10000次,然後將訓練好的 model保存起來,名稱爲my_iter_10000.caffemodel,然後使用jupyter notebook 來進行可視化。

在此順便問一下各位大牛:如何在cnblogs中,發表jupyter notebook生成的文章?

       首先,導入必要的庫
In [1]:
import numpy as np
import matplotlib.pyplot as plt
import os,sys,caffe
%matplotlib inline
In [2]:
caffe_root='/home/lee/caffe/'
os.chdir(caffe_root)
sys.path.insert(0,caffe_root+'python')
In [3]:
plt.rcParams['figure.figsize'] = (8, 8)
plt.rcParams['image.interpolation'] = 'nearest'
plt.rcParams['image.cmap'] = 'gray'
       設置網絡模型,並顯示該模型中各層名稱和參數的規模(注意此處是net.params, 而不是net.blobs)
In [4]:
net = caffe.Net(caffe_root + 'examples/cifar10/cifar10_full.prototxt',
                caffe_root + 'examples/cifar10/my_iter_10000.caffemodel',
                caffe.TEST)
[(k, v[0].data.shape) for k, v in net.params.items()]
Out[4]:
[('conv1', (32, 3, 5, 5)),
 ('conv2', (32, 32, 5, 5)),
 ('conv3', (64, 32, 5, 5)),
 ('ip1', (10, 1024))]
         cifar10訓練的模型配置在文件cifar10_full.prototxt裏面,共有三個卷積層和一個全連接層,參數規模如上所示。
In [5]:
#編寫一個函數,用於顯示各層的參數
def
show_feature(data, padsize=1, padval=0): data -= data.min() data /= data.max() # force the number of filters to be square n = int(np.ceil(np.sqrt(data.shape[0]))) padding = ((0, n ** 2 - data.shape[0]), (0, padsize), (0, padsize)) + ((0, 0),) * (data.ndim - 3) data = np.pad(data, padding, mode='constant', constant_values=(padval, padval)) # tile the filters into an image data = data.reshape((n, n) + data.shape[1:]).transpose((0, 2, 1, 3) + tuple(range(4, data.ndim + 1))) data = data.reshape((n * data.shape[1], n * data.shape[3]) + data.shape[4:]) plt.imshow(data) plt.axis('off')
In [6]:
# 第一個卷積層,參數規模爲(32,3,5,5),即32個5*5的3通道filter
weight = net.params["conv1"][0].data
print weight.shape
show_feature(weight.transpose(0, 2, 3, 1))
 
(32, 3, 5, 5)
參數有兩種類型:權值參數和偏置項。分別用params["conv1"][0] 和params["conv1"][1] 表示 。
我們只顯示權值參數,因此用params["conv1"][0] 
 
 
In [7]:
# 第二個卷積層的權值參數,共有32*32個filter,每個filter大小爲5*5
weight = net.params["conv2"][0].data
print weight.shape
show_feature(weight.reshape(32**2, 5, 5))
 
(32, 32, 5, 5)
 
In [8]:
# 第三個卷積層的權值,共有64*32個filter,每個filter大小爲5*5,取其前1024個進行可視化
 weight = net.params["conv3"][0].data print weight.shape show_feature(weight.reshape(64*32, 5, 5)[:1024])
 
(64, 32, 5, 5)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章