線性迴歸
在統計學中,線性迴歸(Linear Regression)是利用稱爲線性迴歸方程的最小平方函數對一個或多個自變量和因變量之間關係進行建模的一種迴歸分析。
只有一個自變量的情況稱爲簡單迴歸,大於一個自變量情況的叫做多元迴歸。
線性迴歸實例說明
y = f(x)
x={0, 1, 2, 3, 4, 5}, y={0, 20, 60, 68, 77, 110}
如果要以一個最簡單的方程式來近似這組數據,則用一階的線性方程式最爲適合
那麼什麼樣的方程最合適呢?
y=f(x)=20x?
y=f(x)=21x?
......
如此任意的假設一個線性方程式是無根據的,不同的人設定的線性方程式可能是不同的,因此,需要有比較精確方式決定理想的線性方程式。可以要求誤差平方的總和爲最小,做爲決定理想的線性方程式的準則,這樣的方法就稱爲最小平方誤差(least squares error)或是線性迴歸。
術語說明
自變量和因變量:
在y=f(x)中,x是自變量,y是因變量
使用Python中的numpy實現線性迴歸
>>> import numpy
>>> numpy.polyfit([1,2,3],[2,4,6],1)
array([2.00000000e+00, 2.41660629e-15])