Keras實現LeNet網絡參考

模型論文地址

Yann LeCun(1998)的論文《Gradient-Based Learning Applied to Document Recognition》,用於MNIST數據集。

模型結構說明

輸入爲32X32的灰度圖像,第一層爲6個5X5卷積核,不擴展邊界;

第二層爲2X2的最大值池化層,步進爲2X2;

第三層爲16個5X5卷積核,不擴展邊界;

第四層爲2X2的最大值池化層,步進爲2X2;

第五層爲展平層,並全連接120個節點;

第六層爲全連接層,84個節點;

第七層爲全連接softmax層,輸出結果。

模型示意圖

參考代碼

1、模型實現採用keras中的Sequential。

2、源數據分爲train和test兩個文件夾(注意每個文件夾下有十個子文件夾,分別方有0--9數字對應的灰度圖。)。

3、實現代碼如下:

import os
import cv2
from numpy import *
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Conv2D, MaxPooling2D, Flatten
from keras.optimizers import SGD
from keras.utils import np_utils
from keras.utils.vis_utils import plot_model
 
#加載灰度圖片
def loadData(path):
    data = []
    labels = []
    for i in range(10):
        dir = './'+path+'/'+str(i)
        listImg = os.listdir(dir)
        for img in listImg:
            data.append([cv2.imread(dir+'/'+img, 0)])
            labels.append(i)
        print path, i, 'is read'
    return data, labels
 
 
trainData, trainLabels = loadData('train')
testData, testLabels = loadData('test')

#編碼
trainLabels = np_utils.to_categorical(trainLabels, 10)
testLabels = np_utils.to_categorical(testLabels, 10)
 
#創建Sequential對象
model = Sequential()

#卷積層、池化層
model.add(Conv2D(filters=6, kernel_size=(5,5), padding='valid', input_shape=(1,28,28), activation='tanh'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(filters=16, kernel_size=(5,5), padding='valid', activation='tanh'))
model.add(MaxPooling2D(pool_size=(2,2)))

#Flatten層、全連接層
model.add(Flatten())
model.add(Dense(120, activation='tanh'))
model.add(Dense(84, activation='tanh'))
model.add(Dense(10, activation='softmax'))

#優化器
sgd = SGD(lr=0.05, decay=1e-6, momentum=0.9, nesterov=True)

#編譯、訓練
model.compile(optimizer=sgd, loss='categorical_crossentropy', metrics=['accuracy'])
model.fit(trainData, trainLabels, batch_size=500, epochs=20, verbose=1, shuffle=True)
 
plot_model(model, to_file='model.png', show_shapes=True, show_layer_names=False)

網絡結構圖

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章