pytorch
寫的好好的代碼運行到某一塊突然顯示
a leaf Variable that requires grad has been used in an in-place operation
這個bug的意思是 需要梯度的葉子變量被用在了原位操作裏
指的是 如果是原位操作,就會覆蓋原來的值。
因爲並不是計算過程,是賦值,梯度是多少這個沒有一個定義(或許是一個跳變過程,梯度無窮大)。
所以產生了錯誤,可以加上 torch.no_grad() 來規避掉梯度問題
寫的好好的代碼運行到某一塊突然顯示
這個bug的意思是 需要梯度的葉子變量被用在了原位操作裏
指的是 如果是原位操作,就會覆蓋原來的值。
因爲並不是計算過程,是賦值,梯度是多少這個沒有一個定義(或許是一個跳變過程,梯度無窮大)。
所以產生了錯誤,可以加上 torch.no_grad() 來規避掉梯度問題
別的不說吧,你進來了就拍一下自己的腦袋吧(反正我是拍了,還大大的罵了自己一句S***B),作爲中國人,你會感覺到驕傲,爲什麼,多半是你的路徑是中國話 你的代碼路徑是中文