pytorch optimzer的几点说明

说明几点

1.model.zerp_grad()和optimzer.zero_grad(model.parameter())等效

2.optimzer只会优化model.parameter()的权值

3.遇到require_grad=False或者violatile=True的则由于根本就不求梯度,所以也不优化

发布了270 篇原创文章 · 获赞 11 · 访问量 2万+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章