跨境派

跨境派

跨境派,专注跨境行业新闻资讯、跨境电商知识分享!

当前位置:首页 > 卖家故事 > CUDA编程入门极简教程

CUDA编程入门极简教程

时间:2024-05-01 08:45:43 来源:网络cs 作者:纳雷武 栏目:卖家故事 阅读:

标签: 教程  入门 
阅读本书更多章节>>>> 前言

2006年,NVIDIA公司发布了CUDA,CUDA是建立在NVIDIA的CPUs上的一个通用并行计算平台和编程模型,基于CUDA编程可以利用GPUs的并行计算引擎来更加高效地解决比较复杂的计算难题。近年来,GPU最成功的一个应用就是深度学习领域,基于GPU的并行计算已经成为训练深度学习模型的标配。目前,最新的CUDA版本为CUDA 9。

GPU并不是一个独立运行的计算平台,而需要与CPU协同工作,可以看成是CPU的协处理器,因此当我们在说GPU并行计算时,其实是指的基于CPU+GPU的异构计算架构。在异构计算架构中,GPU与CPU通过PCIe总线连接在一起来协同工作,CPU所在位置称为为主机端(host),而GPU所在位置称为设备端(device),如下图所示。

img

基于CPU+GPU的异构计算. 来源:Preofessional CUDA® C Programming

可以看到GPU包括更多的运算核心,其特别适合数据并行的计算密集型任务,如大型矩阵运算,而CPU的运算核心较少,但是其可以实现复杂的逻辑运算,因此其适合控制密集型任务。另外,CPU上的线程是重量级的,上下文切换开销大,但是GPU由于存在很多核心,其线程是轻量级的。因此,基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。

img

基于CPU+GPU的异构计算应用执行逻辑. 来源:Preofessional CUDA® C Programming

CUDA是NVIDIA公司所开发的GPU编程模型,它提供了GPU编程的简易接口,基于CUDA编程可以构建基于GPU计算的应用程序。CUDA提供了对其它编程语言的支持,如C/C++,Python,Fortran等语言,这里我们选择CUDA C/C++接口对CUDA编程进行讲解。开发平台为Windows 10 + VS 2013,Windows系统下的CUDA安装教程可以参考这里。

img

CUDA编程模型支持的编程语言

CUDA编程模型基础

在给出CUDA的编程实例之前,这里先对CUDA编程模型中的一些概念及基础知识做个简单介绍。CUDA编程模型是一个异构模型,需要CPU和GPU协同工作。在CUDA中,hostdevice是两个重要的概念,我们用host指代CPU及其内存,而用device指代GPU及其内存。CUDA程序中既包含host程序,又包含device程序,它们分别在CPU和GPU上运行。同时,host与device之间可以进行通信,这样它们之间可以进行数据拷贝。典型的CUDA程序的执行流程如下:

分配host内存,并进行数据初始化;分配device内存,并从host将数据拷贝到device上;调用CUDA的核函数在device上完成指定的运算;将device上的运算结果拷贝到host上;释放device和host上分配的内存。

上面流程中最重要的一个过程是调用CUDA的核函数来执行并行计算,kernel是CUDA中一个重要的概念,kernel是在device上线程中并行执行的函数,核函数用__global__符号声明,在调用时需要用<<<grid, block>>>来指定kernel要执行的线程数量,在CUDA中,每一个线程都要执行核函数,并且每个线程会分配一个唯一的线程号thread ID,这个ID值可以通过核函数的内置变量threadIdx来获得。

由于GPU实际上是异构模型,所以需要区分host和device上的代码,在CUDA中是通过函数类型限定词开区别host和device上的函数,主要的三个函数类型限定词如下:

__global__:在device上执行,从host中调用(一些特定的GPU也可以从device上调用),返回类型必须是void,不支持可变参数参数,不能成为类成员函数。注意用__global__定义的kernel是异步的,这意味着host不会等待kernel执行完就执行下一步。__device__:在device上执行,单仅可以从device中调用,不可以和__global__同时用。__host__:在host上执行,仅可以从host上调用,一般省略不写,不可以和__global__同时用,但可和__device__,此时函数会在device和host都编译。

要深刻理解kernel,必须要对kernel的线程层次结构有一个清晰的认识。首先GPU上很多并行化的轻量级线程。kernel在device上执行时实际上是启动很多线程,一个kernel所启动的所有线程称为一个网格(grid),同一个网格上的线程共享相同的全局内存空间,grid是线程结构的第一层次,而网格又可以分为很多线程块(block),一个线程块里面包含很多线程,这是第二个层次。线程两层组织结构如下图所示,这是一个gird和block均为2-dim的线程组织。grid和block都是定义为dim3类型的变量,dim3可以看成是包含三个无符号整数(x,y,z)成员的结构体变量,在定义时,缺省值初始化为1。因此grid和block可以灵活地定义为1-dim,2-dim以及3-dim结构,对于图中结构(主要水平方向为x轴),定义的grid和block如下所示,kernel在调用时也必须通过执行配置<<<grid, block>>>来指定kernel所使用的线程数及结构。

dim3 grid(3, 2);dim3 block(5, 3);kernel_fun<<< grid, block >>>(prams...);

img

Kernel上的两层线程组织结构(2-dim)

所以,一个线程需要两个内置的坐标变量(blockIdx,threadIdx)来唯一标识,它们都是dim3类型变量,其中blockIdx指明线程所在grid中的位置,而threaIdx指明线程所在block中的位置,如图中的Thread (1,1)满足:

threadIdx.x = 1threadIdx.y = 1blockIdx.x = 1blockIdx.y = 1

一个线程块上的线程是放在同一个流式多处理器(SM)上的,但是单个SM的资源有限,这导致线程块中的线程数是有限制的,现代GPUs的线程块可支持的线程数可达1024个。有时候,我们要知道一个线程在blcok中的全局ID,此时就必须还要知道block的组织结构,这是通过线程的内置变量blockDim来获得。它获取线程块各个维度的大小。对于一个2-dim的block (Dx,Dy)(D_x, D_y) ,线程 (x,y)(x, y) 的ID值为 (x+y∗Dx)(x + y * D_x) ,如果是3-dim的block (Dx,Dy,Dz)(D_x, D_y, D_z) ,线程 (x,y,z)(x, y, z) 的ID值为 (x+y∗Dx+z∗Dx∗Dy)(x + y * D_x + z * D_x * D_y) 。另外线程还有内置变量gridDim,用于获得网格块各个维度的大小。

kernel的这种线程组织结构天然适合vector,matrix等运算,如我们将利用上图2-dim结构实现两个矩阵的加法,每个线程负责处理每个位置的两个元素相加,代码如下所示。线程块大小为(16, 16),然后将N*N大小的矩阵均分为不同的线程块来执行加法运算。

// Kernel定义__global__ void MatAdd(float A[N][N], float B[N][N], float C[N][N]) {     int i = blockIdx.x * blockDim.x + threadIdx.x;     int j = blockIdx.y * blockDim.y + threadIdx.y;     if (i < N && j < N)         C[i][j] = A[i][j] + B[i][j]; }int main() {     ...    // Kernel 线程配置    dim3 threadsPerBlock(16, 16);     dim3 numBlocks(N / threadsPerBlock.x, N / threadsPerBlock.y);    // kernel调用    MatAdd<<<numBlocks, threadsPerBlock>>>(A, B, C);     ...}

此外这里简单介绍一下CUDA的内存模型,如下图所示。可以看到,每个线程有自己的私有本地内存(Local Memory),而每个线程块有包含共享内存(Shared Memory),可以被线程块中所有线程共享,其生命周期与线程块一致。此外,所有的线程都可以访问全局内存(Global Memory)。还可以访问一些只读内存块:常量内存(Constant Memory)和纹理内存(Texture Memory)。内存结构涉及到程序优化,这里不深入探讨它们。

img

CUDA内存模型

还有重要一点,你需要对GPU的硬件实现有一个基本的认识。上面说到了kernel的线程组织层次,那么一个kernel实际上会启动很多线程,这些线程是逻辑上并行的,但是在物理层却并不一定。这其实和CPU的多线程有类似之处,多线程如果没有多核支持,在物理层也是无法实现并行的。但是好在GPU存在很多CUDA核心,充分利用CUDA核心可以充分发挥GPU的并行计算能力。GPU硬件的一个核心组件是SM,前面已经说过,SM是英文名是 Streaming Multiprocessor,翻译过来就是流式多处理器。SM的核心组件包括CUDA核心,共享内存,寄存器等,SM可以并发地执行数百个线程,并发能力就取决于SM所拥有的资源数。当一个kernel被执行时,它的gird中的线程块被分配到SM上,一个线程块只能在一个SM上被调度。SM一般可以调度多个线程块,这要看SM本身的能力。那么有可能一个kernel的各个线程块被分配多个SM,所以grid只是逻辑层,而SM才是执行的物理层。SM采用的是SIMT (Single-Instruction, Multiple-Thread,单指令多线程)架构,基本的执行单元是线程束(warps),线程束包含32个线程,这些线程同时执行相同的指令,但是每个线程都包含自己的指令地址计数器和寄存器状态,也有自己独立的执行路径。所以尽管线程束中的线程同时从同一程序地址执行,但是可能具有不同的行为,比如遇到了分支结构,一些线程可能进入这个分支,但是另外一些有可能不执行,它们只能死等,因为GPU规定线程束中所有线程在同一周期执行相同的指令,线程束分化会导致性能下降。当线程块被划分到某个SM上时,它将进一步划分为多个线程束,因为这才是SM的基本执行单元,但是一个SM同时并发的线程束数是有限的。这是因为资源限制,SM要为每个线程块分配共享内存,而也要为每个线程束中的线程分配独立的寄存器。所以SM的配置会影响其所支持的线程块和线程束并发数量。总之,就是网格和线程块只是逻辑划分,一个kernel的所有线程其实在物理层是不一定同时并发的。所以kernel的grid和block的配置不同,性能会出现差异,这点是要特别注意的。还有,由于SM的基本执行单元是包含32个线程的线程束,所以block大小一般要设置为32的倍数。

img

CUDA编程的逻辑层和物理层

在进行CUDA编程前,可以先检查一下自己的GPU的硬件配置,这样才可以有的放矢,可以通过下面的程序获得GPU的配置属性:

  int dev = 0;    cudaDeviceProp devProp;    CHECK(cudaGetDeviceProperties(&devProp, dev));    std::cout << "使用GPU device " << dev << ": " << devProp.name << std::endl;    std::cout << "SM的数量:" << devProp.multiProcessorCount << std::endl;    std::cout << "每个线程块的共享内存大小:" << devProp.sharedMemPerBlock / 1024.0 << " KB" << std::endl;    std::cout << "每个线程块的最大线程数:" << devProp.maxThreadsPerBlock << std::endl;    std::cout << "每个EM的最大线程数:" << devProp.maxThreadsPerMultiProcessor << std::endl;    std::cout << "每个SM的最大线程束数:" << devProp.maxThreadsPerMultiProcessor / 32 << std::endl;    // 输出如下    使用GPU device 0: GeForce GT 730    SM的数量:2    每个线程块的共享内存大小:48 KB    每个线程块的最大线程数:1024    每个EM的最大线程数:2048    每个EM的最大线程束数:64

好吧,GT 730显卡确实有点渣,只有2个SM,呜呜…

向量加法实例

知道了CUDA编程基础,我们就来个简单的实战,利用CUDA编程实现两个向量的加法,在实现之前,先简单介绍一下CUDA编程中内存管理API。首先是在device上分配内存的cudaMalloc函数:

cudaError_t cudaMalloc(void** devPtr, size_t size);

这个函数和C语言中的malloc类似,但是在device上申请一定字节大小的显存,其中devPtr是指向所分配内存的指针。同时要释放分配的内存使用cudaFree函数,这和C语言中的free函数对应。另外一个重要的函数是负责host和device之间数据通信的cudaMemcpy函数:

cudaError_t cudaMemcpy(void* dst, const void* src, size_t count, cudaMemcpyKind kind)

其中src指向数据源,而dst是目标区域,count是复制的字节数,其中kind控制复制的方向:cudaMemcpyHostToHost, cudaMemcpyHostToDevice, cudaMemcpyDeviceToHost及cudaMemcpyDeviceToDevice,如cudaMemcpyHostToDevice将host上数据拷贝到device上。

现在我们来实现一个向量加法的实例,这里grid和block都设计为1-dim,首先定义kernel如下:

// 两个向量加法kernel,grid和block均为一维__global__ void add(float* x, float * y, float* z, int n){    // 获取全局索引    int index = threadIdx.x + blockIdx.x * blockDim.x;    // 步长    int stride = blockDim.x * gridDim.x;    for (int i = index; i < n; i += stride)    {        z[i] = x[i] + y[i];    }}

其中stride是整个grid的线程数,有时候向量的元素数很多,这时候可以将在每个线程实现多个元素(元素总数/线程总数)的加法,相当于使用了多个grid来处理,这是一种grid-stride loop方式,不过下面的例子一个线程只处理一个元素,所以kernel里面的循环是不执行的。下面我们具体实现向量加法:

int main(){    int N = 1 << 20;    int nBytes = N * sizeof(float);    // 申请host内存    float *x, *y, *z;    x = (float*)malloc(nBytes);    y = (float*)malloc(nBytes);    z = (float*)malloc(nBytes);    // 初始化数据    for (int i = 0; i < N; ++i)    {        x[i] = 10.0;        y[i] = 20.0;    }    // 申请device内存    float *d_x, *d_y, *d_z;    cudaMalloc((void**)&d_x, nBytes);    cudaMalloc((void**)&d_y, nBytes);    cudaMalloc((void**)&d_z, nBytes);    // 将host数据拷贝到device    cudaMemcpy((void*)d_x, (void*)x, nBytes, cudaMemcpyHostToDevice);    cudaMemcpy((void*)d_y, (void*)y, nBytes, cudaMemcpyHostToDevice);    // 定义kernel的执行配置    dim3 blockSize(256);    dim3 gridSize((N + blockSize.x - 1) / blockSize.x);    // 执行kernel    add << < gridSize, blockSize >> >(d_x, d_y, d_z, N);    // 将device得到的结果拷贝到host    cudaMemcpy((void*)z, (void*)d_z, nBytes, cudaMemcpyDeviceToHost);    // 检查执行结果    float maxError = 0.0;    for (int i = 0; i < N; i++)        maxError = fmax(maxError, fabs(z[i] - 30.0));    std::cout << "最大误差: " << maxError << std::endl;    // 释放device内存    cudaFree(d_x);    cudaFree(d_y);    cudaFree(d_z);    // 释放host内存    free(x);    free(y);    free(z);    return 0;}

这里我们的向量大小为1<<20,而block大小为256,那么grid大小是4096,kernel的线程层级结构如下图所示:

img

kernel的线程层次结构. 来源:https://devblogs.nvidia.com/even-easier-introduction-cuda/

使用nvprof工具可以分析kernel运行情况,结果如下所示,可以看到kernel函数费时约1.5ms。

nvprof cuda9.exe==7244== NVPROF is profiling process 7244, command: cuda9.exe最大误差: 4.31602e+008==7244== Profiling application: cuda9.exe==7244== Profiling result:            Type  Time(%)      Time     Calls       Avg       Min       Max  Name GPU activities:   67.57%  3.2256ms         2  1.6128ms  1.6017ms  1.6239ms  [CUDA memcpy HtoD]                   32.43%  1.5478ms         1  1.5478ms  1.5478ms  1.5478ms  add(float*, float*, float*, int)

你调整block的大小,对比不同配置下的kernel运行情况,我这里测试的是当block为128时,kernel费时约1.6ms,而block为512时kernel费时约1.7ms,当block为64时,kernel费时约2.3ms。看来不是block越大越好,而要适当选择。

在上面的实现中,我们需要单独在host和device上进行内存分配,并且要进行数据拷贝,这是很容易出错的。好在CUDA 6.0引入统一内存(Unified Memory)来避免这种麻烦,简单来说就是统一内存使用一个托管内存来共同管理host和device中的内存,并且自动在host和device中进行数据传输。CUDA中使用cudaMallocManaged函数分配托管内存:

cudaError_t cudaMallocManaged(void **devPtr, size_t size, unsigned int flag=0);

利用统一内存,可以将上面的程序简化如下:

int main(){    int N = 1 << 20;    int nBytes = N * sizeof(float);    // 申请托管内存    float *x, *y, *z;    cudaMallocManaged((void**)&x, nBytes);    cudaMallocManaged((void**)&y, nBytes);    cudaMallocManaged((void**)&z, nBytes);    // 初始化数据    for (int i = 0; i < N; ++i)    {        x[i] = 10.0;        y[i] = 20.0;    }    // 定义kernel的执行配置    dim3 blockSize(256);    dim3 gridSize((N + blockSize.x - 1) / blockSize.x);    // 执行kernel    add << < gridSize, blockSize >> >(x, y, z, N);    // 同步device 保证结果能正确访问    cudaDeviceSynchronize();    // 检查执行结果    float maxError = 0.0;    for (int i = 0; i < N; i++)        maxError = fmax(maxError, fabs(z[i] - 30.0));    std::cout << "最大误差: " << maxError << std::endl;    // 释放内存    cudaFree(x);    cudaFree(y);    cudaFree(z);    return 0;}

相比之前的代码,使用统一内存更简洁了,值得注意的是kernel执行是与host异步的,由于托管内存自动进行数据传输,这里要用cudaDeviceSynchronize()函数保证device和host同步,这样后面才可以正确访问kernel计算的结果。

矩阵乘法实例

最后我们再实现一个稍微复杂一些的例子,就是两个矩阵的乘法,设输入矩阵为 AA 和 BB ,要得到 C=A×BC=A\times B 。实现思路是每个线程计算 CC 的一个元素值 Ci,jC_{i,j} ,对于矩阵运算,应该选用grid和block为2-D的。首先定义矩阵的结构体:

// 矩阵类型,行优先,M(row, col) = *(M.elements + row * M.width + col)struct Matrix{    int width;    int height;    float *elements;};

img

矩阵乘法实现模式

然后实现矩阵乘法的核函数,这里我们定义了两个辅助的__device__函数分别用于获取矩阵的元素值和为矩阵元素赋值,具体代码如下:

// 获取矩阵A的(row, col)元素__device__ float getElement(Matrix *A, int row, int col){return A->elements[row * A->width + col];}// 为矩阵A的(row, col)元素赋值__device__ void setElement(Matrix *A, int row, int col, float value){A->elements[row * A->width + col] = value;}// 矩阵相乘kernel,2-D,每个线程计算一个元素__global__ void matMulKernel(Matrix *A, Matrix *B, Matrix *C){float Cvalue = 0.0;int row = threadIdx.y + blockIdx.y * blockDim.y;int col = threadIdx.x + blockIdx.x * blockDim.x;for (int i = 0; i < A->width; ++i){Cvalue += getElement(A, row, i) * getElement(B, i, col);}setElement(C, row, col, Cvalue);}

最后我们采用统一内存编写矩阵相乘的测试实例:

int main(){    int width = 1 << 10;    int height = 1 << 10;    Matrix *A, *B, *C;    // 申请托管内存    cudaMallocManaged((void**)&A, sizeof(Matrix));    cudaMallocManaged((void**)&B, sizeof(Matrix));    cudaMallocManaged((void**)&C, sizeof(Matrix));    int nBytes = width * height * sizeof(float);    cudaMallocManaged((void**)&A->elements, nBytes);    cudaMallocManaged((void**)&B->elements, nBytes);    cudaMallocManaged((void**)&C->elements, nBytes);    // 初始化数据    A->height = height;    A->width = width;    B->height = height;    B->width = width;    C->height = height;    C->width = width;    for (int i = 0; i < width * height; ++i)    {        A->elements[i] = 1.0;        B->elements[i] = 2.0;    }    // 定义kernel的执行配置    dim3 blockSize(32, 32);    dim3 gridSize((width + blockSize.x - 1) / blockSize.x,         (height + blockSize.y - 1) / blockSize.y);    // 执行kernel    matMulKernel << < gridSize, blockSize >> >(A, B, C);    // 同步device 保证结果能正确访问    cudaDeviceSynchronize();    // 检查执行结果    float maxError = 0.0;    for (int i = 0; i < width * height; ++i)        maxError = fmax(maxError, fabs(C->elements[i] - 2 * width));    std::cout << "最大误差: " << maxError << std::endl;    return 0;}

这里矩阵大小为,设计的线程的block大小为(32, 32),那么grid大小为(32, 32),最终测试结果如下:

nvprof cuda9.exe==16304== NVPROF is profiling process 16304, command: cuda9.exe最大误差: 0==16304== Profiling application: cuda9.exe==16304== Profiling result:            Type  Time(%)      Time     Calls       Avg       Min       Max  Name GPU activities:  100.00%  1.32752s         1  1.32752s  1.32752s  1.32752s  matMulKernel(Matrix*, Matrix*, Matrix*)      API calls:   83.11%  1.32762s         1  1.32762s  1.32762s  1.32762s  cudaDeviceSynchronize                   13.99%  223.40ms         6  37.233ms  37.341us  217.66ms  cudaMallocManaged                    2.81%  44.810ms         1  44.810ms  44.810ms  44.810ms  cudaLaunch                    0.08%  1.3300ms        94  14.149us       0ns  884.64us  cuDeviceGetAttribute                    0.01%  199.03us         1  199.03us  199.03us  199.03us  cuDeviceGetName                    0.00%  10.009us         1  10.009us  10.009us  10.009us  cuDeviceTotalMem                    0.00%  6.5440us         1  6.5440us  6.5440us  6.5440us  cudaConfigureCall                    0.00%  3.0800us         3  1.0260us     385ns  1.5400us  cudaSetupArgument                    0.00%  2.6940us         3     898ns     385ns  1.5390us  cuDeviceGetCount                    0.00%  1.9250us         2     962ns     385ns  1.5400us  cuDeviceGet==16304== Unified Memory profiling result:Device "GeForce GT 730 (0)"   Count  Avg Size  Min Size  Max Size  Total Size  Total Time  Name    2051  4.0000KB  4.0000KB  4.0000KB  8.011719MB  21.20721ms  Host To Device     270  45.570KB  4.0000KB  1.0000MB  12.01563MB  7.032508ms  Device To Host

当然,这不是最高效的实现,后面可以继续优化…

小结

最后只有一句话:CUDA入门容易,但是深入难!希望不是从入门到放弃…

参考资料

码字不易,欢迎给个赞!

**欢迎交流与转载,文章会同步发布在公众号:机器学习算法全栈工程师(Jeemy110)**已剪辑自: https://zhuanlan.zhihu.com/p/34587739

码字不易,欢迎点赞。

前言

2006年,NVIDIA公司发布了CUDA,CUDA是建立在NVIDIA的CPUs上的一个通用并行计算平台和编程模型,基于CUDA编程可以利用GPUs的并行计算引擎来更加高效地解决比较复杂的计算难题。近年来,GPU最成功的一个应用就是深度学习领域,基于GPU的并行计算已经成为训练深度学习模型的标配。目前,最新的CUDA版本为CUDA 9。

GPU并不是一个独立运行的计算平台,而需要与CPU协同工作,可以看成是CPU的协处理器,因此当我们在说GPU并行计算时,其实是指的基于CPU+GPU的异构计算架构。在异构计算架构中,GPU与CPU通过PCIe总线连接在一起来协同工作,CPU所在位置称为为主机端(host),而GPU所在位置称为设备端(device),如下图所示。

img

基于CPU+GPU的异构计算. 来源:Preofessional CUDA® C Programming

可以看到GPU包括更多的运算核心,其特别适合数据并行的计算密集型任务,如大型矩阵运算,而CPU的运算核心较少,但是其可以实现复杂的逻辑运算,因此其适合控制密集型任务。另外,CPU上的线程是重量级的,上下文切换开销大,但是GPU由于存在很多核心,其线程是轻量级的。因此,基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。

img

基于CPU+GPU的异构计算应用执行逻辑. 来源:Preofessional CUDA® C Programming

CUDA是NVIDIA公司所开发的GPU编程模型,它提供了GPU编程的简易接口,基于CUDA编程可以构建基于GPU计算的应用程序。CUDA提供了对其它编程语言的支持,如C/C++,Python,Fortran等语言,这里我们选择CUDA C/C++接口对CUDA编程进行讲解。开发平台为Windows 10 + VS 2013,Windows系统下的CUDA安装教程可以参考这里。

img

CUDA编程模型支持的编程语言

CUDA编程模型基础

在给出CUDA的编程实例之前,这里先对CUDA编程模型中的一些概念及基础知识做个简单介绍。CUDA编程模型是一个异构模型,需要CPU和GPU协同工作。在CUDA中,hostdevice是两个重要的概念,我们用host指代CPU及其内存,而用device指代GPU及其内存。CUDA程序中既包含host程序,又包含device程序,它们分别在CPU和GPU上运行。同时,host与device之间可以进行通信,这样它们之间可以进行数据拷贝。典型的CUDA程序的执行流程如下:

分配host内存,并进行数据初始化;分配device内存,并从host将数据拷贝到device上;调用CUDA的核函数在device上完成指定的运算;将device上的运算结果拷贝到host上;释放device和host上分配的内存。

上面流程中最重要的一个过程是调用CUDA的核函数来执行并行计算,kernel是CUDA中一个重要的概念,kernel是在device上线程中并行执行的函数,核函数用__global__符号声明,在调用时需要用<<<grid, block>>>来指定kernel要执行的线程数量,在CUDA中,每一个线程都要执行核函数,并且每个线程会分配一个唯一的线程号thread ID,这个ID值可以通过核函数的内置变量threadIdx来获得。

由于GPU实际上是异构模型,所以需要区分host和device上的代码,在CUDA中是通过函数类型限定词开区别host和device上的函数,主要的三个函数类型限定词如下:

__global__:在device上执行,从host中调用(一些特定的GPU也可以从device上调用),返回类型必须是void,不支持可变参数参数,不能成为类成员函数。注意用__global__定义的kernel是异步的,这意味着host不会等待kernel执行完就执行下一步。__device__:在device上执行,单仅可以从device中调用,不可以和__global__同时用。__host__:在host上执行,仅可以从host上调用,一般省略不写,不可以和__global__同时用,但可和__device__,此时函数会在device和host都编译。

要深刻理解kernel,必须要对kernel的线程层次结构有一个清晰的认识。首先GPU上很多并行化的轻量级线程。kernel在device上执行时实际上是启动很多线程,一个kernel所启动的所有线程称为一个网格(grid),同一个网格上的线程共享相同的全局内存空间,grid是线程结构的第一层次,而网格又可以分为很多线程块(block),一个线程块里面包含很多线程,这是第二个层次。线程两层组织结构如下图所示,这是一个gird和block均为2-dim的线程组织。grid和block都是定义为dim3类型的变量,dim3可以看成是包含三个无符号整数(x,y,z)成员的结构体变量,在定义时,缺省值初始化为1。因此grid和block可以灵活地定义为1-dim,2-dim以及3-dim结构,对于图中结构(主要水平方向为x轴),定义的grid和block如下所示,kernel在调用时也必须通过执行配置<<<grid, block>>>来指定kernel所使用的线程数及结构。

dim3 grid(3, 2);dim3 block(5, 3);kernel_fun<<< grid, block >>>(prams...);

img

Kernel上的两层线程组织结构(2-dim)

所以,一个线程需要两个内置的坐标变量(blockIdx,threadIdx)来唯一标识,它们都是dim3类型变量,其中blockIdx指明线程所在grid中的位置,而threaIdx指明线程所在block中的位置,如图中的Thread (1,1)满足:

threadIdx.x = 1threadIdx.y = 1blockIdx.x = 1blockIdx.y = 1

一个线程块上的线程是放在同一个流式多处理器(SM)上的,但是单个SM的资源有限,这导致线程块中的线程数是有限制的,现代GPUs的线程块可支持的线程数可达1024个。有时候,我们要知道一个线程在blcok中的全局ID,此时就必须还要知道block的组织结构,这是通过线程的内置变量blockDim来获得。它获取线程块各个维度的大小。对于一个2-dim的block (Dx,Dy)(D_x, D_y) ,线程 (x,y)(x, y) 的ID值为 (x+y∗Dx)(x + y * D_x) ,如果是3-dim的block (Dx,Dy,Dz)(D_x, D_y, D_z) ,线程 (x,y,z)(x, y, z) 的ID值为 (x+y∗Dx+z∗Dx∗Dy)(x + y * D_x + z * D_x * D_y) 。另外线程还有内置变量gridDim,用于获得网格块各个维度的大小。

kernel的这种线程组织结构天然适合vector,matrix等运算,如我们将利用上图2-dim结构实现两个矩阵的加法,每个线程负责处理每个位置的两个元素相加,代码如下所示。线程块大小为(16, 16),然后将N*N大小的矩阵均分为不同的线程块来执行加法运算。

// Kernel定义__global__ void MatAdd(float A[N][N], float B[N][N], float C[N][N]) {     int i = blockIdx.x * blockDim.x + threadIdx.x;     int j = blockIdx.y * blockDim.y + threadIdx.y;     if (i < N && j < N)         C[i][j] = A[i][j] + B[i][j]; }int main() {     ...    // Kernel 线程配置    dim3 threadsPerBlock(16, 16);     dim3 numBlocks(N / threadsPerBlock.x, N / threadsPerBlock.y);    // kernel调用    MatAdd<<<numBlocks, threadsPerBlock>>>(A, B, C);     ...}

此外这里简单介绍一下CUDA的内存模型,如下图所示。可以看到,每个线程有自己的私有本地内存(Local Memory),而每个线程块有包含共享内存(Shared Memory),可以被线程块中所有线程共享,其生命周期与线程块一致。此外,所有的线程都可以访问全局内存(Global Memory)。还可以访问一些只读内存块:常量内存(Constant Memory)和纹理内存(Texture Memory)。内存结构涉及到程序优化,这里不深入探讨它们。

img

CUDA内存模型

还有重要一点,你需要对GPU的硬件实现有一个基本的认识。上面说到了kernel的线程组织层次,那么一个kernel实际上会启动很多线程,这些线程是逻辑上并行的,但是在物理层却并不一定。这其实和CPU的多线程有类似之处,多线程如果没有多核支持,在物理层也是无法实现并行的。但是好在GPU存在很多CUDA核心,充分利用CUDA核心可以充分发挥GPU的并行计算能力。GPU硬件的一个核心组件是SM,前面已经说过,SM是英文名是 Streaming Multiprocessor,翻译过来就是流式多处理器。SM的核心组件包括CUDA核心,共享内存,寄存器等,SM可以并发地执行数百个线程,并发能力就取决于SM所拥有的资源数。当一个kernel被执行时,它的gird中的线程块被分配到SM上,一个线程块只能在一个SM上被调度。SM一般可以调度多个线程块,这要看SM本身的能力。那么有可能一个kernel的各个线程块被分配多个SM,所以grid只是逻辑层,而SM才是执行的物理层。SM采用的是SIMT (Single-Instruction, Multiple-Thread,单指令多线程)架构,基本的执行单元是线程束(warps),线程束包含32个线程,这些线程同时执行相同的指令,但是每个线程都包含自己的指令地址计数器和寄存器状态,也有自己独立的执行路径。所以尽管线程束中的线程同时从同一程序地址执行,但是可能具有不同的行为,比如遇到了分支结构,一些线程可能进入这个分支,但是另外一些有可能不执行,它们只能死等,因为GPU规定线程束中所有线程在同一周期执行相同的指令,线程束分化会导致性能下降。当线程块被划分到某个SM上时,它将进一步划分为多个线程束,因为这才是SM的基本执行单元,但是一个SM同时并发的线程束数是有限的。这是因为资源限制,SM要为每个线程块分配共享内存,而也要为每个线程束中的线程分配独立的寄存器。所以SM的配置会影响其所支持的线程块和线程束并发数量。总之,就是网格和线程块只是逻辑划分,一个kernel的所有线程其实在物理层是不一定同时并发的。所以kernel的grid和block的配置不同,性能会出现差异,这点是要特别注意的。还有,由于SM的基本执行单元是包含32个线程的线程束,所以block大小一般要设置为32的倍数。

img

CUDA编程的逻辑层和物理层

在进行CUDA编程前,可以先检查一下自己的GPU的硬件配置,这样才可以有的放矢,可以通过下面的程序获得GPU的配置属性:

  int dev = 0;    cudaDeviceProp devProp;    CHECK(cudaGetDeviceProperties(&devProp, dev));    std::cout << "使用GPU device " << dev << ": " << devProp.name << std::endl;    std::cout << "SM的数量:" << devProp.multiProcessorCount << std::endl;    std::cout << "每个线程块的共享内存大小:" << devProp.sharedMemPerBlock / 1024.0 << " KB" << std::endl;    std::cout << "每个线程块的最大线程数:" << devProp.maxThreadsPerBlock << std::endl;    std::cout << "每个EM的最大线程数:" << devProp.maxThreadsPerMultiProcessor << std::endl;    std::cout << "每个SM的最大线程束数:" << devProp.maxThreadsPerMultiProcessor / 32 << std::endl;    // 输出如下    使用GPU device 0: GeForce GT 730    SM的数量:2    每个线程块的共享内存大小:48 KB    每个线程块的最大线程数:1024    每个EM的最大线程数:2048    每个EM的最大线程束数:64

好吧,GT 730显卡确实有点渣,只有2个SM,呜呜…

向量加法实例

知道了CUDA编程基础,我们就来个简单的实战,利用CUDA编程实现两个向量的加法,在实现之前,先简单介绍一下CUDA编程中内存管理API。首先是在device上分配内存的cudaMalloc函数:

cudaError_t cudaMalloc(void** devPtr, size_t size);

这个函数和C语言中的malloc类似,但是在device上申请一定字节大小的显存,其中devPtr是指向所分配内存的指针。同时要释放分配的内存使用cudaFree函数,这和C语言中的free函数对应。另外一个重要的函数是负责host和device之间数据通信的cudaMemcpy函数:

cudaError_t cudaMemcpy(void* dst, const void* src, size_t count, cudaMemcpyKind kind)

其中src指向数据源,而dst是目标区域,count是复制的字节数,其中kind控制复制的方向:cudaMemcpyHostToHost, cudaMemcpyHostToDevice, cudaMemcpyDeviceToHost及cudaMemcpyDeviceToDevice,如cudaMemcpyHostToDevice将host上数据拷贝到device上。

现在我们来实现一个向量加法的实例,这里grid和block都设计为1-dim,首先定义kernel如下:

// 两个向量加法kernel,grid和block均为一维__global__ void add(float* x, float * y, float* z, int n){    // 获取全局索引    int index = threadIdx.x + blockIdx.x * blockDim.x;    // 步长    int stride = blockDim.x * gridDim.x;    for (int i = index; i < n; i += stride)    {        z[i] = x[i] + y[i];    }}

其中stride是整个grid的线程数,有时候向量的元素数很多,这时候可以将在每个线程实现多个元素(元素总数/线程总数)的加法,相当于使用了多个grid来处理,这是一种grid-stride loop方式,不过下面的例子一个线程只处理一个元素,所以kernel里面的循环是不执行的。下面我们具体实现向量加法:

int main(){    int N = 1 << 20;    int nBytes = N * sizeof(float);    // 申请host内存    float *x, *y, *z;    x = (float*)malloc(nBytes);    y = (float*)malloc(nBytes);    z = (float*)malloc(nBytes);    // 初始化数据    for (int i = 0; i < N; ++i)    {        x[i] = 10.0;        y[i] = 20.0;    }    // 申请device内存    float *d_x, *d_y, *d_z;    cudaMalloc((void**)&d_x, nBytes);    cudaMalloc((void**)&d_y, nBytes);    cudaMalloc((void**)&d_z, nBytes);    // 将host数据拷贝到device    cudaMemcpy((void*)d_x, (void*)x, nBytes, cudaMemcpyHostToDevice);    cudaMemcpy((void*)d_y, (void*)y, nBytes, cudaMemcpyHostToDevice);    // 定义kernel的执行配置    dim3 blockSize(256);    dim3 gridSize((N + blockSize.x - 1) / blockSize.x);    // 执行kernel    add << < gridSize, blockSize >> >(d_x, d_y, d_z, N);    // 将device得到的结果拷贝到host    cudaMemcpy((void*)z, (void*)d_z, nBytes, cudaMemcpyDeviceToHost);    // 检查执行结果    float maxError = 0.0;    for (int i = 0; i < N; i++)        maxError = fmax(maxError, fabs(z[i] - 30.0));    std::cout << "最大误差: " << maxError << std::endl;    // 释放device内存    cudaFree(d_x);    cudaFree(d_y);    cudaFree(d_z);    // 释放host内存    free(x);    free(y);    free(z);    return 0;}

这里我们的向量大小为1<<20,而block大小为256,那么grid大小是4096,kernel的线程层级结构如下图所示:

img

kernel的线程层次结构. 来源:https://devblogs.nvidia.com/even-easier-introduction-cuda/

使用nvprof工具可以分析kernel运行情况,结果如下所示,可以看到kernel函数费时约1.5ms。

nvprof cuda9.exe==7244== NVPROF is profiling process 7244, command: cuda9.exe最大误差: 4.31602e+008==7244== Profiling application: cuda9.exe==7244== Profiling result:            Type  Time(%)      Time     Calls       Avg       Min       Max  Name GPU activities:   67.57%  3.2256ms         2  1.6128ms  1.6017ms  1.6239ms  [CUDA memcpy HtoD]                   32.43%  1.5478ms         1  1.5478ms  1.5478ms  1.5478ms  add(float*, float*, float*, int)

你调整block的大小,对比不同配置下的kernel运行情况,我这里测试的是当block为128时,kernel费时约1.6ms,而block为512时kernel费时约1.7ms,当block为64时,kernel费时约2.3ms。看来不是block越大越好,而要适当选择。

在上面的实现中,我们需要单独在host和device上进行内存分配,并且要进行数据拷贝,这是很容易出错的。好在CUDA 6.0引入统一内存(Unified Memory)来避免这种麻烦,简单来说就是统一内存使用一个托管内存来共同管理host和device中的内存,并且自动在host和device中进行数据传输。CUDA中使用cudaMallocManaged函数分配托管内存:

cudaError_t cudaMallocManaged(void **devPtr, size_t size, unsigned int flag=0);

利用统一内存,可以将上面的程序简化如下:

int main(){    int N = 1 << 20;    int nBytes = N * sizeof(float);    // 申请托管内存    float *x, *y, *z;    cudaMallocManaged((void**)&x, nBytes);    cudaMallocManaged((void**)&y, nBytes);    cudaMallocManaged((void**)&z, nBytes);    // 初始化数据    for (int i = 0; i < N; ++i)    {        x[i] = 10.0;        y[i] = 20.0;    }    // 定义kernel的执行配置    dim3 blockSize(256);    dim3 gridSize((N + blockSize.x - 1) / blockSize.x);    // 执行kernel    add << < gridSize, blockSize >> >(x, y, z, N);    // 同步device 保证结果能正确访问    cudaDeviceSynchronize();    // 检查执行结果    float maxError = 0.0;    for (int i = 0; i < N; i++)        maxError = fmax(maxError, fabs(z[i] - 30.0));    std::cout << "最大误差: " << maxError << std::endl;    // 释放内存    cudaFree(x);    cudaFree(y);    cudaFree(z);    return 0;}

相比之前的代码,使用统一内存更简洁了,值得注意的是kernel执行是与host异步的,由于托管内存自动进行数据传输,这里要用cudaDeviceSynchronize()函数保证device和host同步,这样后面才可以正确访问kernel计算的结果。

矩阵乘法实例

最后我们再实现一个稍微复杂一些的例子,就是两个矩阵的乘法,设输入矩阵为 AA 和 BB ,要得到 C=A×BC=A\times B 。实现思路是每个线程计算 CC 的一个元素值 Ci,jC_{i,j} ,对于矩阵运算,应该选用grid和block为2-D的。首先定义矩阵的结构体:

// 矩阵类型,行优先,M(row, col) = *(M.elements + row * M.width + col)struct Matrix{    int width;    int height;    float *elements;};

img

矩阵乘法实现模式

然后实现矩阵乘法的核函数,这里我们定义了两个辅助的__device__函数分别用于获取矩阵的元素值和为矩阵元素赋值,具体代码如下:

// 获取矩阵A的(row, col)元素__device__ float getElement(Matrix *A, int row, int col){return A->elements[row * A->width + col];}// 为矩阵A的(row, col)元素赋值__device__ void setElement(Matrix *A, int row, int col, float value){A->elements[row * A->width + col] = value;}// 矩阵相乘kernel,2-D,每个线程计算一个元素__global__ void matMulKernel(Matrix *A, Matrix *B, Matrix *C){float Cvalue = 0.0;int row = threadIdx.y + blockIdx.y * blockDim.y;int col = threadIdx.x + blockIdx.x * blockDim.x;for (int i = 0; i < A->width; ++i){Cvalue += getElement(A, row, i) * getElement(B, i, col);}setElement(C, row, col, Cvalue);}

最后我们采用统一内存编写矩阵相乘的测试实例:

int main(){    int width = 1 << 10;    int height = 1 << 10;    Matrix *A, *B, *C;    // 申请托管内存    cudaMallocManaged((void**)&A, sizeof(Matrix));    cudaMallocManaged((void**)&B, sizeof(Matrix));    cudaMallocManaged((void**)&C, sizeof(Matrix));    int nBytes = width * height * sizeof(float);    cudaMallocManaged((void**)&A->elements, nBytes);    cudaMallocManaged((void**)&B->elements, nBytes);    cudaMallocManaged((void**)&C->elements, nBytes);    // 初始化数据    A->height = height;    A->width = width;    B->height = height;    B->width = width;    C->height = height;    C->width = width;    for (int i = 0; i < width * height; ++i)    {        A->elements[i] = 1.0;        B->elements[i] = 2.0;    }    // 定义kernel的执行配置    dim3 blockSize(32, 32);    dim3 gridSize((width + blockSize.x - 1) / blockSize.x,         (height + blockSize.y - 1) / blockSize.y);    // 执行kernel    matMulKernel << < gridSize, blockSize >> >(A, B, C);    // 同步device 保证结果能正确访问    cudaDeviceSynchronize();    // 检查执行结果    float maxError = 0.0;    for (int i = 0; i < width * height; ++i)        maxError = fmax(maxError, fabs(C->elements[i] - 2 * width));    std::cout << "最大误差: " << maxError << std::endl;    return 0;}

这里矩阵大小为,设计的线程的block大小为(32, 32),那么grid大小为(32, 32),最终测试结果如下:

nvprof cuda9.exe==16304== NVPROF is profiling process 16304, command: cuda9.exe最大误差: 0==16304== Profiling application: cuda9.exe==16304== Profiling result:            Type  Time(%)      Time     Calls       Avg       Min       Max  Name GPU activities:  100.00%  1.32752s         1  1.32752s  1.32752s  1.32752s  matMulKernel(Matrix*, Matrix*, Matrix*)      API calls:   83.11%  1.32762s         1  1.32762s  1.32762s  1.32762s  cudaDeviceSynchronize                   13.99%  223.40ms         6  37.233ms  37.341us  217.66ms  cudaMallocManaged                    2.81%  44.810ms         1  44.810ms  44.810ms  44.810ms  cudaLaunch                    0.08%  1.3300ms        94  14.149us       0ns  884.64us  cuDeviceGetAttribute                    0.01%  199.03us         1  199.03us  199.03us  199.03us  cuDeviceGetName                    0.00%  10.009us         1  10.009us  10.009us  10.009us  cuDeviceTotalMem                    0.00%  6.5440us         1  6.5440us  6.5440us  6.5440us  cudaConfigureCall                    0.00%  3.0800us         3  1.0260us     385ns  1.5400us  cudaSetupArgument                    0.00%  2.6940us         3     898ns     385ns  1.5390us  cuDeviceGetCount                    0.00%  1.9250us         2     962ns     385ns  1.5400us  cuDeviceGet==16304== Unified Memory profiling result:Device "GeForce GT 730 (0)"   Count  Avg Size  Min Size  Max Size  Total Size  Total Time  Name    2051  4.0000KB  4.0000KB  4.0000KB  8.011719MB  21.20721ms  Host To Device     270  45.570KB  4.0000KB  1.0000MB  12.01563MB  7.032508ms  Device To Host

当然,这不是最高效的实现,后面可以继续优化…

小结

最后只有一句话:CUDA入门容易,但是深入难!希望不是从入门到放弃…

参考资料

码字不易,欢迎给个赞!

欢迎交流与转载,文章会同步发布在公众号:机器学习算法全栈工程师(Jeemy110)

阅读本书更多章节>>>>

本文链接:https://www.kjpai.cn/gushi/2024-05-01/163896.html,文章来源:网络cs,作者:纳雷武,版权归作者所有,如需转载请注明来源和作者,否则将追究法律责任!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

文章评论