Coursera 吴恩达 Machine Learning 课程 week 10 quiz

 

Stochastic Gradient Descent Convergence:

 

MapReduce:

 Large Scale Machine Learning:

 

 

 

b) SGD 适合大规模数据集,因为batch gradient在大数据集下,每次计算太慢

c)并不能保证每次下降,SGD每次是随机的,可能上升 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章