我需要为一个相当复杂的任务使用多个(我的)TF CNN模型。我还需要时不时地使用easyOCR(PyTorch)。然而,easyOCR的使用非常罕见,与TF模型相比,任务非常小。因此,我在easyocr.Reader
构造函数中使用gpu=False
。尽管如此,一旦easyocr预测到任何情况,GPU就会分配给pyTorch(这是一个已知的错误,我已经检查了easyocr的github问题),任何TF模型都会抛出错误:
Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so tr
y looking to see if a warning log message was printed above.
如果我先使用任何TF模型进行预测,easyocr模型会抛出:
RuntimeError: cuda runtime error (2) : out of memory at /pytorch/aten/src/THC/THCCachingHostAllocator.cpp:278
我发现了一个workaround,但把这样的东西投入生产似乎相当危险
有没有更安全的方法来实现这一点
目前没有回答
相关问题 更多 >
编程相关推荐