李宏毅:Tuning Hyperparameters(超參數)

1、grid search vs random search

有時候random search的方法還是不錯的,因爲top k的結果已經相差不大。所以沒有必要掃過所有的參數組合,只要取前k名的其中一個結果就好了。

有sample到K的機率:

2、model-based hyperparameter optimization

不一定好用

3、reinforcement learning(強化學習)

用RNN來決定network架構

(1)找到最好的activation function:

(2)找到learning rate:

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章