機器學習-筆記9-總結

 時間真快,10周的課程就已經結束了

十週,8個programming exercise,18個quiz,感謝

 看着長長地視頻列表,心中有些小小的成就感,在此感謝coursera提供的課程,感謝Andrew教授的精彩課程,爲我打開了機器學習這扇大門

 還是先簡單說說最後一週的內容吧,首先是Large Scale Machine Learning ,即講機器學習算法如何應對大量的數據,總結下來就是以下幾點:

 1.Stochastic Gradient Descent

    隨機的梯度下降算法,每次用一個樣例進行梯度下降,雖然不會嚴格地趨近於最優值,但是會十分接近,以至於可以很好的應用於實際。

2.Mini-Batch Gradient Descent (6 min)

   介於Stochastic Gradient Descent和Batch Gradient Descent   之間的一個算法,即每次迭代時使用一部分樣例進行計算,一般選擇20-100,可以說上面兩種算法就是特殊情況下的Mini-Batch Gradient Descent。

3.繪製以迭代次數爲x軸的圖像,以此來確定算法是否使用大量的數據進行更好的計算。

4.在線學習,即你有一個持續的樣例來源,你可以只使用一次這個樣例,參考許多網站的用戶行爲分析。

5.Map Reduce,其實是很重要的一個思想,大概就是雲計算的思想,把計算分配到不同的計算機上進行整合。

最後給出了一個應用的樣例,OCR (Optical Character Recognition),大概講了一個項目的整合和分析,相當精彩。

課程總結和計劃:

接下來準備學習PGM,可能趕不上課程的deadline,但是不會爲了最後的分數而學習,看了第一週的課程,感覺還不錯,不愧是斯坦福的。NNML就比較不行了,這個很難繼續下去。另外買了《PRML》-影印版,原版太貴。。。,準備開始啃,加油!另外可以想想做點小東西,或者在http://www.kaggle.com/學習一下。

最後,真心感謝Andrew Ng.謝謝

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章