擅长:python、mysql、java
<p>我建议你-</p>
<ol>
<li><p>请先检查你的Cuda版本。确保它是10.0。</p></li>
<li><p>如果是10.0,那么检查你的TF版本是否是GPU版本。</p></li>
<li><p>检查TF是否可以使用命令访问gpu</p></li>
</ol>
<pre><code>value = tf.test.is_gpu_available(
cuda_only=False,
min_cuda_compute_capability=None
)
print ('***If TF can access GPU: ***\n\n',value) # MUST RETURN True IF IT CAN!!
</code></pre>
<ol start=“4”>
<li>我想前2点你已经处理好了。如果TF也可以访问您的gpu,那么正如您在<code>Value error</code>中所看到的,它实际上有gpu的名称。我不能说<code>tf.keras.utils.multi_gpu_model()</code>函数,因为我没有在TF中使用它。但我建议您使用<code>with tf.device('/gpu:0'):</code>。在这里面你可以调用你的<code>model</code>或者定义模型。在</li>
<li>如果第4点也不起作用,那么只需添加以下行</li>
</ol>
^{pr2}$
<p>并删除<code>with tf.device('/gpu:0')</code></p>