Revisiting Rainbow: Promoting more Insightful and Inclusive Deep Reinforcement Learning Research


發表時間:2021(ICML 2021)
文章要點:這篇文章就是在小的環境上重新測試了一遍DQN以及一系列變種的效果,得出的結論就是說即使是在簡單任務上進行測試,也能得到有價值的結果,呼籲降低研究RL的算力門檻。具體的,作者先說就算是Atari遊戲上做研究,對算力的要求也是巨大的,Atari 2600 game from the ALE (there are 57 in total) takes roughly 5 days。然後就說不用Atari呢,直接測更簡單的環境呢,

然後得出的結論也是combining all components produces a better overall agent。然後就分析了一通結果,就說小場景上測試也能得出相似的結論,大家不要那麼苛刻,給沒有算力的人一點包容。
總結:感覺就是在小場景上實驗了DQN以及一系列變種,打的旗號主要還是argue for a need to change the status-quo in evaluating and proposing new research to avoid exacerbating the barriers to entry for newcomers from underprivileged communities,具體創新啥的確實沒有。
疑問:裏面有個結論還是挺意外的,Adam+MSE is a superior combination than RMSProp+Huber.
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章