1 问题

使用model.cuda(),作用是对于模型还是数据,cuda()函数都能实现从CPU到GPU的内存迁移

model.cuda()

报错
Exception has occurred: RuntimeError cuDNN error: CUDNN_STATUS_NOT_INITIALIZED

2 原因与解决方案

2.1 方法一

原因是:可能是Pytorch需要安装的四个包,版本没有对应,导致CUDA没法用

pytorch==1.7.1
torchvision==0.8.2
torchaudio==0.7.2
cudatoolkit==10.*

卸载了所有与的四个包,按照官方提供的四个对应版本重新安装。当然首先需要查看自己的CUDA版本
Pytorch官网安装Pytorch

nvcc -V

在这里插入图片描述
本人是Linux系统CUDA10,命令如下

#CUDA 10.1
conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=10.1 -c pytorch

2.2 方法二

原因是:CUDA与N卡驱动不对应,没有安装正确,CUDA不能用,查看CUDA是否能用命令如下

import torch
print(torch.cuda.is_available())

如果返回False,则重新安装CUDA,Linux系统具体参考本人另一篇博客
【Deepin 20系统】自定义路径安装CUDA-10或CUDA-11+cuDNN

2.3 方法三

原因是:版本太高
将torch的一系列依赖包降级到1.7.1

conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=10.1 -c pytorch

2.4 方法四

GPU实在用不了,换CPU.用model.to(device)替代model.cuda()

device = "cpu"
model = model.to(device)
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐