keras 非線性迴歸

顯示200個隨機點

import keras
import numpy as np
import matplotlib.pyplot as plt
# Sequential按順序構成的模型
from keras.models import Sequential
# Dense全連接層
from keras.layers import Dense,Activation
from keras.optimizers import SGD
# 數據 使用numpy生成200個隨機點 範圍(-0.5,0.5)
x_data = np.linspace(-0.5,0.5,200)
# 噪聲
noise = np.random.normal(0,0.02,x_data.shape)
# 開方
y_data = np.square(x_data) + noise

# 顯示隨機點
plt.scatter(x_data,y_data)
plt.show()

曲線擬合

# 構建一個順序模型
model = Sequential()
# 在模型中添加一個全連接層
# 輸入1----隱藏層10-----輸出1
# 只有第一層需要輸入 不寫activation默認是線性激活函數 加入激活函數提升非線性 雙曲正切tanh 加上才變爲曲線
model.add(Dense(units=10,input_dim=1,activation='tanh'))
# model.add(Activation('tanh')) #加激活函數的另一種方法 快捷鍵註釋語句爲ctrl+?
model.add(Dense(units=1,activation='tanh')) #上一層輸出爲10所以這層輸入也爲10不需要再指定
# model.add(Activation('tanh'))

# 定義優化算法 定義自己的學習率 
sgd = SGD(lr=0.3)
model.compile(optimizer=sgd,loss='mse')

# 一下與線性迴歸一樣
# 訓練3001個批次
for step in range(3001):
    # 每次訓練一個批次
    cost = model.train_on_batch(x_data,y_data)
    # 每500個batch打印一次cost值
    if step % 500 == 0:
        print('cost:',cost)
        
# x_data輸入網絡中,得到預測值y_pred
y_pred = model.predict(x_data)

# 顯示隨機點
plt.scatter(x_data,y_data)
# 顯示預測結果
plt.plot(x_data,y_pred,'r-',lw=3)
plt.show()
#輸出結果
cost: 0.012945292
cost: 0.0045377044
cost: 0.0015108829
cost: 0.00050024246
cost: 0.00042749985
cost: 0.00042587577
cost: 0.00042743183

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章