模型論文地址
Yann LeCun(1998)的論文《Gradient-Based Learning Applied to Document Recognition》,用於MNIST數據集。
模型結構說明
輸入爲32X32的灰度圖像,第一層爲6個5X5卷積核,不擴展邊界;
第二層爲2X2的最大值池化層,步進爲2X2;
第三層爲16個5X5卷積核,不擴展邊界;
第四層爲2X2的最大值池化層,步進爲2X2;
第五層爲展平層,並全連接120個節點;
第六層爲全連接層,84個節點;
第七層爲全連接softmax層,輸出結果。
模型示意圖
參考代碼
1、模型實現採用keras中的Sequential。
2、源數據分爲train和test兩個文件夾(注意每個文件夾下有十個子文件夾,分別方有0--9數字對應的灰度圖。)。
3、實現代碼如下:
import os
import cv2
from numpy import *
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Conv2D, MaxPooling2D, Flatten
from keras.optimizers import SGD
from keras.utils import np_utils
from keras.utils.vis_utils import plot_model
#加載灰度圖片
def loadData(path):
data = []
labels = []
for i in range(10):
dir = './'+path+'/'+str(i)
listImg = os.listdir(dir)
for img in listImg:
data.append([cv2.imread(dir+'/'+img, 0)])
labels.append(i)
print path, i, 'is read'
return data, labels
trainData, trainLabels = loadData('train')
testData, testLabels = loadData('test')
#編碼
trainLabels = np_utils.to_categorical(trainLabels, 10)
testLabels = np_utils.to_categorical(testLabels, 10)
#創建Sequential對象
model = Sequential()
#卷積層、池化層
model.add(Conv2D(filters=6, kernel_size=(5,5), padding='valid', input_shape=(1,28,28), activation='tanh'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(filters=16, kernel_size=(5,5), padding='valid', activation='tanh'))
model.add(MaxPooling2D(pool_size=(2,2)))
#Flatten層、全連接層
model.add(Flatten())
model.add(Dense(120, activation='tanh'))
model.add(Dense(84, activation='tanh'))
model.add(Dense(10, activation='softmax'))
#優化器
sgd = SGD(lr=0.05, decay=1e-6, momentum=0.9, nesterov=True)
#編譯、訓練
model.compile(optimizer=sgd, loss='categorical_crossentropy', metrics=['accuracy'])
model.fit(trainData, trainLabels, batch_size=500, epochs=20, verbose=1, shuffle=True)
plot_model(model, to_file='model.png', show_shapes=True, show_layer_names=False)