当前位置:   article > 正文

RuntimeError: CUDA out of memory_outofmemoryerror: cuda out of memory. tried to all

outofmemoryerror: cuda out of memory. tried to allocate 30.00 mib. gpu 0 has

今天在用PyTorch(GPU)跑项目时,布置好环境调通代码,第一次运行时,显卡可以正常使用,再次运行就报错,报错如下:

RuntimeError: CUDA out of memory. Tried to allocate 2.14 GiB (GPU 0; 6.00 GiB total capacity; 260.73 MiB already allocated; 3.38 GiB free; 1.19 GiB reserved in total by PyTorch)

注:我用的是NVIDIA GeForce GTX 1060 with Max-Q Design, 6144.0MB,怎么会出现可用内存很小呢,显然是说明PyTorch占用的GPU空间没有释放,导致下次运行时,出现CUDA out of memory

1、输入 nvidia-smi,会显示GPU的使用情况,以及占用GPU的应用程序

2、输入taskkill -PID 进程号 -F 结束占用的进程,比如 

taskkill -PID 7632 -F 

3、再次输入 nvidia-smi 查看GPU使用情况,会发现GPU被占用的空间大大降低了

个人记笔记,方便日后看,很多东西记着只是为了自己方便。。喷子请绕道!!!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/220613
推荐阅读
相关标签
  

闽ICP备14008679号