温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Python怎么实现GPU加速的基本操作

发布时间:2021-08-31 23:03:48 来源:亿速云 阅读:579 作者:chen 栏目:开发技术

本篇内容介绍了“Python怎么实现GPU加速的基本操作”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

目录
  • CUDA的线程与块

    • 用GPU打印线程编号

    • 用GPU打印块编号

    • 用GPU打印块的维度

    • 用GPU打印线程的维度

    • 总结

  • GPU所支持的最大并行度

    • GPU的加速效果

      CUDA的线程与块

      GPU从计算逻辑来讲,可以认为是一个高并行度的计算阵列,我们可以想象成一个二维的像围棋棋盘一样的网格,每一个格子都可以执行一个单独的任务,并且所有的格子可以同时执行计算任务,这就是GPU加速的来源。那么刚才所提到的棋盘,每一列都认为是一个线程,并有自己的线程编号;每一行都是一个块,有自己的块编号。我们可以通过一些简单的程序来理解这其中的逻辑:

      用GPU打印线程编号

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          print ('threadIdx:', cuda.threadIdx.x)
      
      if __name__ == '__main__':
          gpu[2,4]()
      threadIdx: 0
      threadIdx: 1
      threadIdx: 2
      threadIdx: 3
      threadIdx: 0
      threadIdx: 1
      threadIdx: 2
      threadIdx: 3

      用GPU打印块编号

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          print ('blockIdx:', cuda.blockIdx.x)
      
      if __name__ == '__main__':
          gpu[2,4]()
      blockIdx: 0
      blockIdx: 0
      blockIdx: 0
      blockIdx: 0
      blockIdx: 1
      blockIdx: 1
      blockIdx: 1
      blockIdx: 1

      用GPU打印块的维度

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          print ('blockDim:', cuda.blockDim.x)
      
      if __name__ == '__main__':
          gpu[2,4]()
      blockDim: 4
      blockDim: 4
      blockDim: 4
      blockDim: 4
      blockDim: 4
      blockDim: 4
      blockDim: 4
      blockDim: 4

      用GPU打印线程的维度

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          print ('gridDim:', cuda.gridDim.x)
      
      if __name__ == '__main__':
          gpu[2,4]()
      gridDim: 2
      gridDim: 2
      gridDim: 2
      gridDim: 2
      gridDim: 2
      gridDim: 2
      gridDim: 2
      gridDim: 2

      总结

      我们可以用如下的一张图来总结刚才提到的GPU网格的概念,在上面的测试案例中,我们在GPU上划分一块2*4大小的阵列用于我们自己的计算,每一行都是一个块,每一列都是一个线程,所有的网格是同时执行计算的内容的(如果没有逻辑上的依赖的话)。

      Python怎么实现GPU加速的基本操作

      GPU所支持的最大并行度

      我们可以用几个简单的程序来测试一下GPU的并行度,因为每一个GPU上的网格都可以独立的执行一个任务,因此我们认为可以分配多少个网格,就有多大的并行度。本机的最大并行应该是在\(2^40\),因此假设我们给GPU分配\(2^50\)大小的网格,程序就会报错:

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          pass
      
      if __name__ == '__main__':
          gpu[2**50,1]()
          print ('Running Success!')

      运行结果如下:

      Traceback (most recent call last):
      File "numba_cuda_test.py", line 10, in <module>
      gpu[2**50,1]()
      File "/home/dechin/.local/lib/python3.7/site-packages/numba/cuda/compiler.py", line 822, in __call__
      self.stream, self.sharedmem)
      File "/home/dechin/.local/lib/python3.7/site-packages/numba/cuda/compiler.py", line 966, in call
      kernel.launch(args, griddim, blockdim, stream, sharedmem)
      File "/home/dechin/.local/lib/python3.7/site-packages/numba/cuda/compiler.py", line 699, in launch
      cooperative=self.cooperative)
      File "/home/dechin/.local/lib/python3.7/site-packages/numba/cuda/cudadrv/driver.py", line 2100, in launch_kernel
      None)
      File "/home/dechin/.local/lib/python3.7/site-packages/numba/cuda/cudadrv/driver.py", line 300, in safe_cuda_api_call
      self._check_error(fname, retcode)
      File "/home/dechin/.local/lib/python3.7/site-packages/numba/cuda/cudadrv/driver.py", line 335, in _check_error
      raise CudaAPIError(retcode, msg)
      numba.cuda.cudadrv.driver.CudaAPIError: [1] Call to cuLaunchKernel results in CUDA_ERROR_INVALID_VALUE

      而如果我们分配一个额定大小之内的网格,程序就可以正常的运行:

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          pass
      
      if __name__ == '__main__':
          gpu[2**30,1]()
          print ('Running Success!')

      这里加了一个打印输出:

      Running Success!

      需要注意的是,两个维度上的可分配大小是不一致的,比如本机的上限是分配230*210大小的空间用于计算:

      # numba_cuda_test.py
      
      from numba import cuda
      
      @cuda.jit
      def gpu():
          pass
      
      if __name__ == '__main__':
          gpu[2**30,2**10]()
          print ('Running Success!')

      同样的,只要在允许的范围内都是可以执行成功的:

      Running Success!

      如果在本机上有多块GPU的话,还可以通过select_device的指令来选择执行指令的GPU编号:

      # numba_cuda_test.py
      
      from numba import cuda
      cuda.select_device(1)
      import time
      
      @cuda.jit
      def gpu():
          pass
      
      if __name__ == '__main__':
          gpu[2**30,2**10]()
          print ('Running Success!')

      如果两块GPU的可分配空间一致的话,就可以运行成功:

      Running Success!

      GPU的加速效果

      前面我们经常提到一个词叫GPU加速,GPU之所以能够实现加速的效果,正源自于GPU本身的高度并行性。这里我们直接用一个数组求和的案例来说明GPU的加速效果,这个案例需要得到的结果是\(b_j=a_j+b_j\),将求和后的值赋值在其中的一个输入数组之上,以节省一些内存空间。当然,如果这个数组还有其他的用途的话,是不能这样操作的。具体代码如下:

      # gpu_add.py
      
      from numba import cuda
      cuda.select_device(1)
      import numpy as np
      import time
      
      @cuda.jit
      def gpu(a,b,DATA_LENGHTH):
          idx = cuda.threadIdx.x + cuda.blockIdx.x * cuda.blockDim.x
          if idx < DATA_LENGHTH:
              b[idx] += a[idx]
      
      if __name__ == '__main__':
          np.random.seed(1)
          DATA_EXP_LENGTH = 20
          DATA_DIMENSION = 2**DATA_EXP_LENGTH
          np_time = 0.0
          nb_time = 0.0
          for i in range(100):
              a = np.random.randn(DATA_DIMENSION).astype(np.float32)
              b = np.random.randn(DATA_DIMENSION).astype(np.float32)
              a_cuda = cuda.to_device(a)
              b_cuda = cuda.to_device(b)
              time0 = time.time()
              gpu[DATA_DIMENSION,4](a_cuda,b_cuda,DATA_DIMENSION)
              time1 = time.time()
              c = b_cuda.copy_to_host()
              time2 = time.time()
              d = np.add(a,b)
              time3 = time.time()
              if i == 0:
                  print ('The error between numba and numpy is: ', sum(c-d))
                  continue
              np_time += time3 - time2
              nb_time += time1 - time0
          print ('The time cost of numba is: {}s'.format(nb_time))
          print ('The time cost of numpy is: {}s'.format(np_time))

      需要注意的是,基于Numba实现的Python的GPU加速程序,采用的jit即时编译的模式,也就是说,在运行调用到相关函数时,才会对其进行编译优化。换句话说,第一次执行这一条指令的时候,事实上达不到加速的效果,因为这个运行的时间包含了较长的一段编译时间。但是从第二次运行调用开始,就不需要重新编译,这时候GPU加速的效果就体现出来了,运行结果如下:

      $ python3 gpu_add.py The error between numba and numpy is: 0.0
      The time cost of numba is: 0.018711328506469727s
      The time cost of numpy is: 0.09502553939819336s

      可以看到,即使是相比于Python中优化程度十分强大的的Numpy实现,我们自己写的GPU加速的程序也能够达到5倍的加速效果(在前面一篇博客中,针对于特殊计算场景,加速效果可达1000倍以上),而且可定制化程度非常之高。

      “Python怎么实现GPU加速的基本操作”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!

      向AI问一下细节

      免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

      AI