MinAtar: An Atari-Inspired Testbed for Thorough and Reproducible Reinforcement Learning Experiments


发表时间:2019
文章要点:这篇文章做了一个简化版的Atari。现在的Atari game还是太慢了,大家做实验基本上都跑不超过5个随机种子,实验说服力不够。这篇文章搞了个简化版,输入只有1010n的binary的表征,其中n表示channel(n channels corresponding to game specific objects)。动作从原来的18个缩小到6个。Rewards只有0或者1。当前包含五个游戏Seaquest, Breakout, Asterix, Freeway and Space Invaders。作者在上面测了DQN和AC

总结:很有意义的事情,确实可以节省很多计算时间。不过目前还很简陋,游戏比较少,而且功能只有最基本的。比如没有clone_state, restore_state的API,没法恢复状态,做model-based 算法或者planning的话,只能用deepcopy。
疑问:无。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章