2024-09-29 19:21:43 发布
网友
我是google colab的新手
我正试图在那里深入学习
深度学习lib库,没有任何特定的深度学习库,如TysFooLoad、PyTrk等。
我认为我使用的是gpu,因为我在colab中正确地选择了运行时类型
然而,在代码执行期间,我有时会收到退出gpu模式的消息,因为我没有使用它
所以,我的问题是:如果没有特殊的ai库,如何使用GoogleColab gpu,只使用普通python?是否有类似于“装饰代码”的东西可以放入我的原始代码中,从而激活gpu
使用PyTorch或Tensorflow这样的框架更容易
如果没有,您可以尝试pycuda或numba,它们更接近于“纯”GPU编程。这比仅仅使用Pytork还难
确保Nvidia驱动程序是最新的,您也可以安装Cuda工具包(不确定您是否需要在collab中安装)
还有麻木
如果需要,可以使用conda安装它们
范例
conda install numba & conda install cudatoolkit or pip install numba
对于要通过GPU计算的函数,我们将使用numba.jit decorator。装饰器有几个参数,但我们将只使用目标参数。目标告诉jit编译源代码(“CPU”或“Cuda”)。“Cuda”对应于GPU。但是,如果CPU作为参数传递,那么jit会尝试优化代码,使其在CPU上运行得更快,并提高速度
from numba import jit, cuda import numpy as np @jit(target ="cuda") def func(a): for i in range(10000000): a[i]+= 1
使用PyTorch或Tensorflow这样的框架更容易
如果没有,您可以尝试pycuda或numba,它们更接近于“纯”GPU编程。这比仅仅使用Pytork还难
确保Nvidia驱动程序是最新的,您也可以安装Cuda工具包(不确定您是否需要在collab中安装)
还有麻木
如果需要,可以使用conda安装它们
范例
对于要通过GPU计算的函数,我们将使用numba.jit decorator。装饰器有几个参数,但我们将只使用目标参数。目标告诉jit编译源代码(“CPU”或“Cuda”)。“Cuda”对应于GPU。但是,如果CPU作为参数传递,那么jit会尝试优化代码,使其在CPU上运行得更快,并提高速度
相关问题 更多 >
编程相关推荐