SGDR: Stochastic Gradient Descent with Warm Restarts

SGDR和CLR比較類似,都是給學習率設置週期和變化範圍,按照下面的公式讓學習率週期性的變化:

總的來說,就是在一個週期開始時,將學習率設置爲最大值,然後按照餘弦函數減小到最小值,再開始下一個週期的循環.嘗試了各種超參數的設置.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章