1.迴歸指的是連續性問題,線性只的是直線。
目標函數:,要使這個值最小
實際,其中根據中心極限定理,猜測符合高斯分佈。
則 ,再用極大似然法,,再取對數,再求導數爲0,
得到,如果不可逆,則加一個擾動,。
2.梯度下降法
J是個凸函數,隨機初始化,沿着梯度方向下降,不斷迭代知道得到最優值(或者迭代相鄰值在一定範圍內)。
如果是批處理,則樣本是從第一個取到第m個取到所有樣本;因爲有的時候樣本很多,實際情況中常常是給定一個不那麼多的隨機樣本來處理,但這種方法有可能會收斂到一定範圍內來回震動;也有將若干個樣本的梯度作爲更新方向來做的。
3.局部加權線性迴歸
有的時候需要求的不是直線,而可能是二次曲線。則可以把二次曲線看成是若干條直線的組成,對小範圍內的點先進行直線擬合,並對其他不在這個範圍的點給一個權值,離的近的則權值可能大些,離得遠的則權值可能小些。則局部加權線性迴歸可以這樣表示: ,其中w可以爲高斯核,也可以爲多項式核等其他表示形式。這種爲非參數學習方法。
4.Logistic迴歸參數估計
,爲0的時候值爲0.5,大於0大於0.5,小於0小於0.5,可以分爲兩類
,,這兩個式子可以寫成一個 再根據最大似然法求導,得到,再用參數迭代,梯度下降得到,與線性迴歸相比,形式都是一樣的,