PyTorch入門(五)——autograd與邏輯迴歸

autograd——自動求導系統

torch.autograd.backward

torch.autograd.backward(tensor,
						grad_tensors=None,
						retain_graph=None,
						create_graph=False)

功能:自動求梯度
tensor:用於求導的張量,如loss
retain_graph:保存計算圖
create_graph:創建導數計算圖,用於高階求導
grad_tensors:多梯度權重

torch.autograd.grad

torch.autograd.grad(outputs,
					inputs,
					grad_tensors=None,
					retain_graph=None,
					create_graph=False)

功能:求取梯度
outputs:用於求導的張量,如loss
inputs:需要梯度的張量
retain_graph:保存計算圖
create_graph:創建導數計算圖,用於高階求導
grad_tensors:多梯度權重

注意

  1. 梯度不自動清零
  2. 依賴於葉子結點的結點,requires_grad默認爲True
  3. 葉子結點不能執行in-place操作

邏輯迴歸

邏輯迴歸是線性二分類模型
模型的表達式:
y=f(WX+b)y=f(WX+b)
f(x)=11+exf(x)=\frac{1}{1+e^{-x}}
其中f(x)f(x)稱爲Sigmod函數,也稱爲Logistic函數,圖像如圖所示:
在這裏插入圖片描述
class={0y<0.51y0.5class= \left\{\begin{matrix} 0& y<0.5\\ 1& y\ge 0.5 \end{matrix}\right.
線性迴歸是分析自變量x與因變量y(標量)之間關係的方法
邏輯迴歸是分析自變量x與因變量y(概率)之間關係的方法

邏輯迴歸也叫對數機率迴歸:
lny1y=WX+bln\frac{y}{1-y}=WX+b

此外還有對數迴歸:
lny=WX+blny=WX+b

機器學習模型訓練的要素:

  1. 數據
  2. 模型
  3. 損失函數
  4. 優化器
  5. 迭代訓練
發佈了49 篇原創文章 · 獲贊 45 · 訪問量 1萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章