pytorch實戰遇到的bugs

在訓練和測試的時候都遇到這個問題,

_error_if_any_worker_fails()

RuntimeError: DataLoader worker (pid 8565) is killed by signal: Killed.

 

還有這個,

RuntimeError: $ Torch: not enough memory: you tried to allocate

 

經過研究,修改batch_size參數就不報錯了。將batch_size改小一點,甚至是1都可以。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章