Keras——用Keras搭建線性迴歸神經網絡

1.前言

神經網絡可以用來模擬迴歸問題 (regression),例如給一組數據,用一條線來對數據進行擬合,並可以預測新輸入 x 的輸出值。

2.用Keras搭建線性迴歸神經網絡

2.1.導入必要模塊

import numpy as np
from keras.models import Sequential    
from keras.layers import Dense     
import matplotlib.pyplot as plt

2.2.創建數據

np.random.seed(42)  
X = np.linspace(-1,1,200)    #(200,)
np.random.shuffle(X)
Y = -0.5*X + 2.7 + np.random.normal(0,0.05,(200,))   #均值,標準差,輸出的shape
plt.scatter(X, Y)
plt.show()

X_train, Y_train = X[:160],Y[:160]    #訓練數據0-159
X_test, Y_test = X[160:], Y[160:]     #測試數據

在這裏插入圖片描述

2.3.搭建模型

然後用 Sequential 建立 model, 再用 model.add 添加神經層,添加的是 Dense 全連接神經層。參數有兩個,一個是輸入數據和輸出數據的維度, x 和 y 是一維的。

如果需要添加下一個神經層的時候,不用再定義輸入的緯度,因爲它默認就把前一層的輸出作爲當前層的輸入。在這個例子裏,只需要一層就夠了。

model = Sequential()    #用來一層一層一層的去建立神經層
model.add(Dense(units=1, input_dim=1))    #Dense指這個神經層是全連接層

2.4.激活模型

接下來要激活神經網絡,上一步只是定義模型。

參數中,誤差函數用的是 mse 均方誤差;優化器用的是 sgd 隨機梯度下降法。

model.compile(loss='mse',optimizer='sgd')  #激活模型

2.5.訓練+測試

訓練的時候用 model.train_on_batch 一批一批的訓練 X_train, Y_train。默認的返回值是 cost,每100步輸出一下結果。

測試用到的函數是 model.evaluate,輸入測試集的x和y, 輸出 cost,weights 和 biases。其中 weights 和 biases 是取在模型的第一層 model.layers[0] 學習到的參數。從學習到的結果你可以看到, weights 比較接近-0.5,bias 接近 2.7。

print('Training.................')
for step in range(500):
    cost = model.train_on_batch(X_train, Y_train)  #一批一批的訓練
    if step % 100 == 0:
        print('Train cost:',cost)
print('\nTesting................')
cost = model.evaluate(X_test, Y_test, batch_size=40)
print('test cost:',cost)
W, b = model.layers[0].get_weights()  #取模型的第一層的參數
print('Weights=',W,'\nbiases=',b)

Y_pred = model.predict(X_test)
plt.scatter(X_test, Y_test)
plt.plot(X_test, Y_pred)
plt.show()

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章