我正在用我的GPU和pytorch一起进行NN训练。 但是GPU的使用率奇怪地“有限”在50-60%左右。 这是对计算资源的浪费,但我不能再高一点。在
我确信硬件是好的,因为同时运行2个进程,或者训练一个简单的NN(例如DCGAN)都可以占用95%或更多的GPU(这是应该的) 我的神经网络包含几个卷积层,它应该使用更多的GPU资源。在
另外,我想来自dataset的数据已经足够快了,因为我在我的dataloader实例中使用了workers=64,我的磁盘工作正常。在
我只是不知道发生了什么。在
开发人员详细信息:
GPU:Nvidia GTX 1080 Ti
操作系统:Ubuntu 64位
我只能猜测,没有进一步的研究,但可能是您的网络在层大小方面很小(不是层数),因此每一步培训都不足以占用所有GPU资源。或者至少数据大小和传输速度(到gpu内存)之间的比率不好,并且gpu大部分时间都处于空闲状态。在
太长了,读不下去了,GPU的工作时间不够长,证明了内存传输的合理性。相关问题 更多 >
编程相关推荐