admin管理员组文章数量:1432029
零、参考来源
torch | gpu 利用率低怎么办 | 犀牛的博客
一、怎么正确地查看GPU运行状态(比如占用率)?
1.1 任务管理器
Windows系统自带的任务管理器显示默认的copy、3D、video引擎下的占用率,不代表训练时需要的CUDA引擎占用率。
将某一个小窗口的引擎设置为CUDA,才会真正显示训练模型的实际占用率。
1.2 nvidia-smi
在CMD窗口中输入nvidia-smi后,回车,就会显示GPU占用率、温度、占用内存大小等信息。注意,如果此命令回车后提示错误,可能是因为显卡驱动程序未安装。
下图的Memory-usage是内存使用情况,GPU-Util是Gpu利用率;注意内存占用高不代表利用率高,详见下面的链接。
GPU显存占满利用率GPU-util为0_吨吨不打野的博客-CSDN博客_gpu util
如果想要每隔1秒刷新一次GPU使用情况,可以使用命令【watch -n 1 -d nvidia-smi
】。
二、如何尽量榨干我们的GPU性能?
2.1 更改batch-size的大小
batch-size的大小和GPU memory占用大小成线性关系。比如下面用batch size=2时占了1.15Gb,而我的显卡GTX 1650显存有4GB,我还能把batch size定义为4。
batch size调成4后,gpu_mem变成了 2.42gb,已经榨得差不多了。
这里有一个疑惑,我把batch size调成1和调成4,在任务管理器中cuda占用率都是70%左右。
2.2 神经网络深度
版权声明:本文标题:pytorch深度学习框架-训练模型时GPU占用率太低怎么办?如何尽量榨干我们的GPU性能? 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.betaflare.com/biancheng/1743862050a2551920.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论