同一個代碼在不同配置服務器跑的時候經常遇到cuda torch cudnn等版本問題。可以用下面程序檢驗:
# !/usr/bin/python
#-*- coding: UTF-8 -*-
import torch
# 正常沒有輸出
a = torch.tensor(1.)
# 正常沒有輸出
from torch.backend import cudnn
# 正常沒有輸出
cudnn.is_available()
# 正常返回True
cudnn.is_acceptable(a.cuda())
# 正常返回True