《人工智能工程師》邏輯迴歸 LogisticRegression

在邏輯迴歸裏,不去擬合樣本分佈,而是確定決策邊界。

sigmoid函數

sig = 1.0/(1 + np.exp(-x))

爲什麼需要這個函數?這個函數有個特點,當x<0時,0<y<0.5;x=0時,y=0.5;x>0時,1>y>0.5。那麼,假設我想對數據做二分類,

首先從數據講起。

1.數據是m行n列的數據(xij, i=1..m, j=1..n),那麼,樣本1是向量X1 =(x11,x12,x13...x1n),樣本二是X2=(x21,x22...x2n)。向量一般是列向量,所以樣本X可以表示爲X=(X1,X2...Xn).T。樣本X1每個小x需要一個參數θ,使得該θ能與X1點乘,所得E1爲方程的值y1;每個樣本X的小x都需要和θ點乘,θ的維度應該是1*n;最終獲得Y的列向量 Y =(Y1,Y2,Y3...Yn).T。那麼,可以得到一個參數θ,使得正樣本的X.T.dotθ>0.5,負樣本的X.T.dotθ<0.5。有什麼用呢?

2.把Y向量帶入sigmoid函數,就可得到每個樣本的取值,取值均在0~1之間,這樣,就可以和label作對比了。(有點問題)

損失函數

如何去評判分類的好或者不好呢?




發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章