機器學習實戰之Logistic迴歸小結

本文主要記錄我在學習機器學習實戰Logistic迴歸這一章遇到的問題。

之前也學習過邏輯迴歸,邏輯迴歸一般解決分類問題,之前結合了吳恩達教授的機器學習課程和周志華教授的西瓜書,現在又用機器學習實戰這本書籍來學習,這兩種方法在實現過程中存在一些差異。

吳恩達機器學習課程和周志華教授的做法如下:
這裏寫圖片描述
上面來自吳恩達教授的筆記,詳細講述了損失函數推到過程。

在機器學習實戰中:
這裏寫圖片描述

參數更新方式相同。
兩種方法的目標函數雖不同,但也殊途同歸。
我在學習時主要遇到的問題是:
對一維向量進行轉置時,例如將行向量轉換爲列向量時,不要用Y.T,或者transpose函數,因爲用這兩個函數對一維向量轉置根本沒用,python中,一維向量轉置,行向量任然是行向量。
所以我最後用的reshape函數,這樣纔沒有出錯。

本章最後用隨機梯度上升算法來降低算法的複雜度,並對學習率進行調整,以及隨機選取樣本來更新參數。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章