Revisiting Rainbow: Promoting more Insightful and Inclusive Deep Reinforcement Learning Research


发表时间:2021(ICML 2021)
文章要点:这篇文章就是在小的环境上重新测试了一遍DQN以及一系列变种的效果,得出的结论就是说即使是在简单任务上进行测试,也能得到有价值的结果,呼吁降低研究RL的算力门槛。具体的,作者先说就算是Atari游戏上做研究,对算力的要求也是巨大的,Atari 2600 game from the ALE (there are 57 in total) takes roughly 5 days。然后就说不用Atari呢,直接测更简单的环境呢,

然后得出的结论也是combining all components produces a better overall agent。然后就分析了一通结果,就说小场景上测试也能得出相似的结论,大家不要那么苛刻,给没有算力的人一点包容。
总结:感觉就是在小场景上实验了DQN以及一系列变种,打的旗号主要还是argue for a need to change the status-quo in evaluating and proposing new research to avoid exacerbating the barriers to entry for newcomers from underprivileged communities,具体创新啥的确实没有。
疑问:里面有个结论还是挺意外的,Adam+MSE is a superior combination than RMSProp+Huber.
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章