pytorch 0.4 改动: cannot resize variables that require grad

在pytorch0.3中做过一些关于张量求梯度的工作,目的是扩展一下pytorch的module,今天升级pytorch0.4,发现原先的代码不可用,报错如下:
RuntimeError: cannot resize variables that require grad

在pytorch 0.3中,允许对求梯度的变量改变size,改变size后,再次求偏导,梯度置0。实际上这是一个逻辑上的bug,当张量size减小时,某些分量消失,对于这些分量求偏导,应该报异常,如果置0,则会混淆梯度消失和分量消失的概念。好在pytorch 0.4中及时做出更正。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章