easyOCR即使在GPU上也会分配GPU=False

2024-10-03 06:28:08 发布

您现在位置:Python中文网/ 问答频道 /正文

我需要为一个相当复杂的任务使用多个(我的)TF CNN模型。我还需要时不时地使用easyOCR(PyTorch)。然而,easyOCR的使用非常罕见,与TF模型相比,任务非常小。因此,我在easyocr.Reader构造函数中使用gpu=False。尽管如此,一旦easyocr预测到任何情况,GPU就会分配给pyTorch(这是一个已知的错误,我已经检查了easyocr的github问题),任何TF模型都会抛出错误:

Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so tr
y looking to see if a warning log message was printed above.

如果我先使用任何TF模型进行预测,easyocr模型会抛出:

RuntimeError: cuda runtime error (2) : out of memory at /pytorch/aten/src/THC/THCCachingHostAllocator.cpp:278

我发现了一个workaround,但把这样的东西投入生产似乎相当危险

有没有更安全的方法来实现这一点


Tags: to模型githubfalsegputf错误情况