单元线性回归
定义
- 假设目标值与特征之间线性相关: y=wx+b
- 其中y为预期值
损失函数
- 假设有n对数据,则损失函数:L=n1∑1n(yi−y)2,即MSE
求解最小化L时,w与b的值
方法一:最小二乘参数估计
- ∂w∂L=n2(w∑1nxi2+∑1nxi(b−yi))
- ∂b∂L=n2(∑1n(wxi+b−yi))
梯度下降
- 梯度下降核心内容是对自变量进行不断的更新(针对w和b求偏导),使得目标函数不断逼近最小值的过程
- w−α∂w∂L→w
- b−α∂b∂L→b
- 其中α为learning rate。若α太小,则收敛很慢;若太大,可能导致不能收敛
- 注意:此方法可能收敛到局部最小化
- w与b要同时更新。不能:先更新w,再求偏导b,最后更新b
多元线性回归
定义
假设目标值与特征之间线性相关: y=θ3x3+θ2x2+θ1x1+θ0 = ΘTX
梯度下降,同上
特征规格化
- 在使用梯度下降时,为了时收敛更快,可以转换特征在相似的规模上,比如,0 - 1,-3 - +3。(x-avg)/(max - min)
最后解得特征为:Θ=(XTX)−1XTy, y为已知值
若已知向量不可逆,可能是有冗余的特征,也可能是特征数量太多了