關於sklearn中的歸一化,標準化以及返回inverse_transform()的詳細例子,附帶具體的迴歸預測的例子

主要就以下函數作出舉例:
Ⅰ.preprocessing.MinMaxScaler(feature_range=(-1, 1)).fit(X)
Ⅱ.scaler1.inverse_transform(X_scaled1)
Ⅲ.preprocessing.StandardScaler().fit(X)
Ⅳ.scaler2.inverse_transform(X_scaled2)
scaler1,scaler2爲歸一化標準化後地對象。

import torch
from sklearn import preprocessing
import numpy as np

X = np.array([[ 1., -1.,  2.],[ 2.,  0.,  0.],[ 0.,  1., -1.]])
print(X)
# The transformation is given by::

#     X_std = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
#     X_scaled = X_std * (max - min) + min

# where min, max = feature_range.

# The transformation is calculated as::

#     X_scaled = scale * X + min - X.min(axis=0) * scale
#     where scale = (max - min) / (X.max(axis=0) - X.min(axis=0))
# 歸一化(任意範圍)
scaler1= preprocessing.MinMaxScaler(feature_range=(-1, 1)).fit(X)#歸一化到(-1,1),scaler1保存最大最小值,便於回到原來參數
print(scaler1)
X_scaled1 = scaler1.transform(X)#下次歸一化,按scaler1歸一化到(-1,1)
print("歸一化X_scaled1:\n{}".format(X_scaled1))
X1=scaler1.inverse_transform(X_scaled1)#按scaler1回到原來參數
print(X1)

print("fuck"*30)
# 標準化(標準高斯分佈)<概率論基礎啊>
scaler2 = preprocessing.StandardScaler().fit(X)#標準化到,scaler2保存方差和均值
print(scaler2)
X_scaled2 = preprocessing.scale(X)#下次標準化,按scaler2標準化到(mean_=0,var_=1)
print("標準化X_scaled2:\n{}".format(X_scaled2))
X2=scaler2.inverse_transform(X_scaled2)#按scaler2回到原來參數
print(X2)

print("*"*100)
print("scaler2.var_:{}".format(scaler2.var_))
print("scaler2.mean_:{}".format(scaler2.mean_))
print("&"*100)
print("scaler1.data_min_:{}".format(scaler1.data_min_))
print("scaler1.data_max_:{}".format(scaler1.data_max_))

效果:
在這裏插入圖片描述
黑色背景可能更好點:
在這裏插入圖片描述
具體的迴歸預測例子:pre_data是數據集,293*14,第一列是y,其他13個特徵x:

x_data=pre_data[:,1:]
y_data=pre_data[:,0]
#僅對輸入x_data作標準化
scaler2 = preprocessing.StandardScaler().fit(x_data)#標準化到,scaler2保存方差和均值
standar_data = preprocessing.scale(x_data)#下次標準化,按scaler2標準化到(mean_=0,var_=1)
x_train,x_test,y_train,y_test =train_test_split( standar_data  ,
   y_data  ,test_size=0.15)
initial_data = scaler2.inverse_transform(x_test)#按scaler2回到原來x_data
plt.figure(1, figsize=(32, 20))
plt.plot(pre_data[:,13],pre_data[:,0], 'b-', label = 'actual')
plt.plot(initial_data[:,12] ,predictions, 'r.', label = 'prediction')# predictions是模型預測值
plt.show()

喜歡請點贊收藏,歡迎指正,謝謝。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章