DistBelief 框架下的並行隨機梯度下降法 - Downpour SGD

from:http://blog.csdn.net/itplus/article/details/31831661
可以閱讀:http://martin.zinkevich.org/publications/nips2010.pdf
SDG的並行算法,適用於採用SGD進行優化的算法,比如LR,神經網絡等。

本文是讀完 Jeffrey Dean, Greg S. Corrado 等人的文章 Large Scale Distributed Deep Networks (2012) 後的一則讀書筆記,重點介紹在 Google 的軟件框架 DistBelief 下設計的一種用來訓練大規模深度神經網絡的隨機梯度下降法 — Downpour SGD,該方法通過分佈式地部署多個模型副本和一個“參數服務器”,同時實現了模型並行和數據並行,且對機器失效問題具有很好的容錯性。結合 Adagrad 自適應學習率使用,對非凸優化問題有很好的效果。









作者: peghoty 

出處: http://blog.csdn.net/itplus/article/details/31831661

歡迎轉載/分享, 但請務必聲明文章出處.

                </div>
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章