机器学习算法总结——logistic regression

定义

  • 解决二分类问题
  • y^=11+ez\hat{y}=\frac{1}{1+e^{-z}},此函数也成为Sigmoid函数,z = θTX\theta^{T}X

代价函数

  • L=ylogy^(1y)log(1y^)L=-ylog\hat{y}-(1-y)log(1-\hat{y}),y为实际值,y^\hat{y}为预测值
  • 损失转化为分段函数,即为 L={log(y^),y=1log(1y^),y=0L= \left\{\begin{matrix} -log(\hat{y}), y=1 \\ -log(1-\hat{y}),y=0 \end{matrix}\right.

梯度下降求得最优解

  • θjα1m(y^y)xjθj\theta _{j}-\alpha \sum_{1}^{m}(\hat{y}-y)x_{j}\rightarrow \theta _{j}
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章