1.前言
神經網絡可以用來模擬迴歸問題 (regression),例如給一組數據,用一條線來對數據進行擬合,並可以預測新輸入 x 的輸出值。
2.用Keras搭建線性迴歸神經網絡
2.1.導入必要模塊
import numpy as np
from keras.models import Sequential
from keras.layers import Dense
import matplotlib.pyplot as plt
2.2.創建數據
np.random.seed(42)
X = np.linspace(-1,1,200) #(200,)
np.random.shuffle(X)
Y = -0.5*X + 2.7 + np.random.normal(0,0.05,(200,)) #均值,標準差,輸出的shape
plt.scatter(X, Y)
plt.show()
X_train, Y_train = X[:160],Y[:160] #訓練數據0-159
X_test, Y_test = X[160:], Y[160:] #測試數據
2.3.搭建模型
然後用 Sequential 建立 model, 再用 model.add 添加神經層,添加的是 Dense 全連接神經層。參數有兩個,一個是輸入數據和輸出數據的維度, x 和 y 是一維的。
如果需要添加下一個神經層的時候,不用再定義輸入的緯度,因爲它默認就把前一層的輸出作爲當前層的輸入。在這個例子裏,只需要一層就夠了。
model = Sequential() #用來一層一層一層的去建立神經層
model.add(Dense(units=1, input_dim=1)) #Dense指這個神經層是全連接層
2.4.激活模型
接下來要激活神經網絡,上一步只是定義模型。
參數中,誤差函數用的是 mse 均方誤差;優化器用的是 sgd 隨機梯度下降法。
model.compile(loss='mse',optimizer='sgd') #激活模型
2.5.訓練+測試
訓練的時候用 model.train_on_batch 一批一批的訓練 X_train, Y_train。默認的返回值是 cost,每100步輸出一下結果。
測試用到的函數是 model.evaluate,輸入測試集的x和y, 輸出 cost,weights 和 biases。其中 weights 和 biases 是取在模型的第一層 model.layers[0] 學習到的參數。從學習到的結果你可以看到, weights 比較接近-0.5,bias 接近 2.7。
print('Training.................')
for step in range(500):
cost = model.train_on_batch(X_train, Y_train) #一批一批的訓練
if step % 100 == 0:
print('Train cost:',cost)
print('\nTesting................')
cost = model.evaluate(X_test, Y_test, batch_size=40)
print('test cost:',cost)
W, b = model.layers[0].get_weights() #取模型的第一層的參數
print('Weights=',W,'\nbiases=',b)
Y_pred = model.predict(X_test)
plt.scatter(X_test, Y_test)
plt.plot(X_test, Y_pred)
plt.show()