《人工智能工程师》逻辑回归 LogisticRegression

在逻辑回归里,不去拟合样本分布,而是确定决策边界。

sigmoid函数

sig = 1.0/(1 + np.exp(-x))

为什么需要这个函数?这个函数有个特点,当x<0时,0<y<0.5;x=0时,y=0.5;x>0时,1>y>0.5。那么,假设我想对数据做二分类,

首先从数据讲起。

1.数据是m行n列的数据(xij, i=1..m, j=1..n),那么,样本1是向量X1 =(x11,x12,x13...x1n),样本二是X2=(x21,x22...x2n)。向量一般是列向量,所以样本X可以表示为X=(X1,X2...Xn).T。样本X1每个小x需要一个参数θ,使得该θ能与X1点乘,所得E1为方程的值y1;每个样本X的小x都需要和θ点乘,θ的维度应该是1*n;最终获得Y的列向量 Y =(Y1,Y2,Y3...Yn).T。那么,可以得到一个参数θ,使得正样本的X.T.dotθ>0.5,负样本的X.T.dotθ<0.5。有什么用呢?

2.把Y向量带入sigmoid函数,就可得到每个样本的取值,取值均在0~1之间,这样,就可以和label作对比了。(有点问题)

损失函数

如何去评判分类的好或者不好呢?




發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章