機器學習基石(林軒田)第十章 筆記與感悟總結

10.1 Logistics Regression - Logistics Regression Problem


判斷有還是沒有心臟病,即二元分類問題。左上角說明有噪音。我們比較在意的是錯誤率的多少。


我們不是很強硬的就0或者1,而是變成了一個值,值的大小即概率值



我們得不到理想中的數據,而是實際上有噪音的數據,而且數據不是概率值,而是確定的0,1

x0是bias,其他都是數據,然後計算一個加權和。

我們對分數不感興趣,而是要映射到0-1之間。

我們使用     logistics    函數來進行映射。






10.2 Logistics Regression - Logistics Regression Error

三個模型進行對照。

都要對特徵進行加權和進行打分。

只是對分數抽進行不同的處理。


將f(x)按照形式等價替換。


有一筆資料是 如下形式,那這個資料產生的機率是多少。

條件的概率連成


替換


我們假裝h就是f,將f替換成h後的概率





likelihood()就是概率論中的似然函數

既然已經產生了這個序列,那麼我們相信這個f出現的機率很大,我們就要選擇最大的h,這樣選擇後的h纔有可能是最接近f的那個h。

而且同時我們關注的是不一樣的部分,故P(x1)。。等等都是灰色的。


我們將h換成了權重w


我們覺得乘法不好,換成加法


同時也想讓最大化問題變成最小化問題



我們叫做err(w,x,y)叫做cross-entropy error,有歷史上的原因。





10.3 Logistics Regression - Gradient of Logistic Regression Error

接下來就要找w,使Ein最小。


使用鏈式求導法則。剝洋蔥。



我們想要求出梯度爲0的地方。

有一種可能性,所有sita等於0。和對應 的  都要同號,我們要求每一個都要同號,那代表是linear separable。這樣纔有可能發生。


回憶一下PLA。

相等的時候,前面的係數是0,因此就不進行更新操作。

而不相等的時候,爲1,才進行更新的操作。



這個公式有兩項,後面的那一項是更新的方向。而前面的係數是走多大步,在後面會有用。





10.4 Logistics Regression - Gradient Descent

我們並沒有變得輕鬆,因爲有了非線性,而且還有很多的限制條件。

我們做的簡單的都是有關線性的式子,我們就像能否將其轉換成線性的式子、?

我們用極限的方法,用一小段的線段來進行估計。即泰勒展開。


yita 是步長,我們並不關心,是我們人爲規定的。

v的定義如下:



我們要求v是一個單位向量。



那麼步長的 yita 怎麼選擇呢?

我們如果選的很小或者很大都不好

 


注意,紫色的yita 正比於||梯度Ein||,因此最後得到結果。







發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章