pytorch bug: a leaf Variable that requires grad has been used in an in-place operation

pytorch

寫的好好的代碼運行到某一塊突然顯示

a leaf Variable that requires grad has been used in an in-place operation

這個bug的意思是 需要梯度的葉子變量被用在了原位操作裏

指的是 如果是原位操作,就會覆蓋原來的值。

因爲並不是計算過程,是賦值,梯度是多少這個沒有一個定義(或許是一個跳變過程,梯度無窮大)。

所以產生了錯誤,可以加上 torch.no_grad() 來規避掉梯度問題

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章