深度學習|Keras識別MNIST手寫數字(二)

數據和方法

今天依舊使用MNIST手寫數字,方法也是MLP方法,這次我們讓隱含層爲1000個神經元。

數據處理

處理還是和上次一樣。

  • 圖片是28X28,我們要轉換爲一維的,這樣纔可以作爲我們的輸入層。
  • 圖片標準化
  • label值換爲one-hot編碼,做爲輸出層。

代碼:

X_train = X_train.reshape(60000,784).astype('float32')
X_test = X_test.reshape(10000,784).astype('float32')

X_train = X_train/255
X_test = X_test/255

y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)

MLP建模

建立模型

這次我們在中間加入的爲1000個神經元,我們只需要簡單修改下代碼即可。

from keras.models import Sequential
from keras.layers import Dense

model = Sequential()
model.add(Dense(units=1000, 
                input_dim=784, 
                kernel_initializer='normal', 
                activation='relu'))
model.add(Dense(units=10, 
                kernel_initializer='normal', 
                activation='softmax'))
模型訓練
model.compile(loss='categorical_crossentropy', 
              optimizer='adam', metrics=['accuracy'])

train_history = model.fit(x=X_train,
                         y=y_train,validation_split=0.2, 
                         epochs=10, batch_size=200,verbose=2)

這裏我們將結果可視化,發現訓練集精度高,而測試集的精度上升卻很慢,這是典型的過擬合,所以接下來用dropout方法,防止一定的過擬合。

dropout防止過擬合

這裏我們只需要在隱含層後面add一個Dropout即可。結果看出,過擬合得到很大的改正,而且精度也提高了不少。

from keras.models import Sequential
from keras.layers import Dense

model = Sequential()
model.add(Dense(units=1000, 
                input_dim=784, 
                kernel_initializer='normal', 
                activation='relu'))

model.add(Dropout(0.5))  ###加入dropout

model.add(Dense(units=10, 
                kernel_initializer='normal', 
                activation='softmax'))
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章