機器學習系列-邏輯迴歸學習

  1. 邏輯迴歸介紹

邏輯迴歸假設數據服從伯努利分佈,通過極大似然函數的方法,運用梯度下降來求解參數,來達到將數據二分類的目的。

邏輯迴歸(Logistic Regression)是一種用於解決二分類(0 or 1)問題的機器學習方法,用於估計某種事物的可能性。比如某用戶購買某商品的可能性,某病人患有某種疾病的可能性,以及某廣告被用戶點擊的可能性等。 注意,這裏用的是“可能性”,而非數學上的“概率”,logisitc迴歸的結果並非數學定義中的概率值,不可以直接當做概率值來用。該結果往往用於和其他特徵值加權求和,而非直接相乘。

邏輯迴歸(Logistic Regression)與線性迴歸(Linear Regression)都是一種廣義線性模型(generalized linear model)。邏輯迴歸假設因變量 y 服從伯努利分佈,而線性迴歸假設因變量 y 服從高斯分佈。 因此與線性迴歸有很多相同之處,去除Sigmoid映射函數的話,邏輯迴歸算法就是一個線性迴歸。可以說,邏輯迴歸是以線性迴歸爲理論支持的,但是邏輯迴歸通過Sigmoid函數引入了非線性因素,因此可以輕鬆處理0/1分類問題。

    1. Sigmoid函數

邏輯迴歸首先把樣本映射到[0,1]之間的數值,這就歸功於sigmoid函數,可以把任何連續的值映射到[0,1]之間,數越大越趨向於0,越小越趨近於1。Sigmoid函數公式如下: 

 

函數的圖像如下圖,x=0的時候y對應中心點。

 

未完

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章