數據和方法
今天依舊使用MNIST手寫數字,方法也是MLP方法,這次我們讓隱含層爲1000個神經元。
數據處理
處理還是和上次一樣。
- 圖片是28X28,我們要轉換爲一維的,這樣纔可以作爲我們的輸入層。
- 圖片標準化
- label值換爲one-hot編碼,做爲輸出層。
代碼:
X_train = X_train.reshape(60000,784).astype('float32')
X_test = X_test.reshape(10000,784).astype('float32')
X_train = X_train/255
X_test = X_test/255
y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)
MLP建模
建立模型
這次我們在中間加入的爲1000個神經元,我們只需要簡單修改下代碼即可。
from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(units=1000,
input_dim=784,
kernel_initializer='normal',
activation='relu'))
model.add(Dense(units=10,
kernel_initializer='normal',
activation='softmax'))
模型訓練
model.compile(loss='categorical_crossentropy',
optimizer='adam', metrics=['accuracy'])
train_history = model.fit(x=X_train,
y=y_train,validation_split=0.2,
epochs=10, batch_size=200,verbose=2)
這裏我們將結果可視化,發現訓練集精度高,而測試集的精度上升卻很慢,這是典型的過擬合,所以接下來用dropout方法,防止一定的過擬合。
dropout防止過擬合
這裏我們只需要在隱含層後面add一個Dropout即可。結果看出,過擬合得到很大的改正,而且精度也提高了不少。
from keras.models import Sequential
from keras.layers import Dense
model = Sequential()
model.add(Dense(units=1000,
input_dim=784,
kernel_initializer='normal',
activation='relu'))
model.add(Dropout(0.5)) ###加入dropout
model.add(Dense(units=10,
kernel_initializer='normal',
activation='softmax'))