MindSpore(CUDA编程(四)Global Memory)
在GPU上,on-board memory包含以下类型:local memory 每个thread一个。线程私有。global memory 每个grid一个。每个thread都可以读。constant memory 每个grid一个。只读。每个thread都可以读。texture memory 每个grid一个。只读。每个thread都可以读。on-chip memory包含以下类型:registers 每个thread一个。线程私有。shared memory 每个block一个,一个block下所有线程都可以访问。HOST内存函数malloc 申请memset 初始化free 释放DEVICE内存函数cudaMalloc 申请cudaMemset 初始化cudaFree 释放请注意,这里函数只返回状态。所以分配的内存地址作为函数参数。HOST《-》DEVICE互相拷贝cudaMemcpy( 目的内存地址,源内存地址,内存大小,cudaMemcpyHostToDevice/cudaMemcpyDeviceToHost/cudaMemcpyDeviceToDevice/cudaMemcpyHostToHost)以矩阵乘为例:
文章图片
CPU的做法是嵌套循环,如上图所示。GPU的做法应该是使用 index( blockIdx和 threadIdx的组合公式)替换原来的下标i,j。这也是一般CUDA程序的套路——把for loop展开成每个线程处理其中的一步。那么,如何使用CUDA将坐标拆开呢?将二维坐标(矩阵)改为 在全局中的索引:需要找到每个线程需要处理元素的位置。
文章图片
ty=线程在y方向的坐标tx=线程在x方向的坐标ty=blockIdx.yblockDim.y + threadIdx.ytx=blockIdx.xblockDim.x + threadIdx.xnx=x方向有多少数据。index = ty * nx + tx目的是将高维降为低维。
文章图片
文章图片
矩阵乘的每个核函数的算法如下:
文章图片
典型的核函数算法代码如下:
文章图片
需要注意:矩阵乘 矩阵M是 mXn,矩阵N是 nXk,这里面需要 矩阵M和矩阵N都有n。否则无法相乘。上代码:matrix_mul.cu#include
include
global void gpu_matrix_mult(int a,int b, int *c, int m, int n, int k)
{
int row = blockIdx.y * blockDim.y + threadIdx.y;
int col = blockIdx.x * blockDim.x + threadIdx.x;
int sum = 0;
if( col < k && row < m)
{
for(int i = 0;
i < n;
i++)
{
sum += a[row * n + i] * b[i * k + col];
}
c[row * k + col] = sum;
}
}
//使用CPU进行矩阵计算
void cpu_matrix_mult(int h_a, int h_b, int *h_result, int m, int n, int k) {
for (int i = 0;
i < m;
++i)
{
for (int j = 0;
j < k;
++j)
{
int tmp = 0.0;
for (int h = 0;
h < n;
++h)
{
tmp += h_a[i * n + h] * h_b[h * k + j];
}
h_result[i * k + j] = tmp;
}
}
}
int main(int argc, char const *argv[])
{
/* 矩阵A mXn,矩阵B nXk --》矩阵乘计算的结果是 mXk */
int m=3;
int n=4;
int k=5;
int *h_a, *h_b, *h_c, *h_cc;
//分配原矩阵的内存 h是host memory
cudaMallocHost((void **) &h_a, sizeof(int)*m*n);
cudaMallocHost((void **) &h_b, sizeof(int)*n*k);
//分配 CPU结果内存
cudaMallocHost((void **) &h_c, sizeof(int)*m*k);
//分配 GPU结果内存
cudaMallocHost((void **) &h_cc, sizeof(int)*m*k);
//初始化矩阵A(mxn)
srand(time(0));
printf("---------------h_a------------------\n");
for (int i = 0;
i < m;
++i) {
for (int j = 0;
j < n;
++j) {
h_a[i * n + j] = rand() % 1024;
printf("%d",h_a[i * n + j] );
printf(" ");
}
printf("\n");
}//初始化矩阵B(nxk)
printf("---------------h_b------------------\n");
for (int i = 0;
i < n;
++i) {
for (int j = 0;
j < k;
++j) {
h_b[i * k + j] = rand() % 1024;
printf("%d",h_b[i * k + j] );
printf(" ");
}
printf("\n");
}int *d_a, *d_b, *d_c;
//分配 原矩阵的GPU内存 d是device memory
cudaMalloc((void **) &d_a, sizeof(int)*m*n);
cudaMalloc((void **) &d_b, sizeof(int)*n*k);
//分配 目的矩阵的GPU内存
cudaMalloc((void **) &d_c, sizeof(int)*m*k);
// copy matrix A and B from host to device memory
cudaMemcpy(d_a, h_a, sizeof(int)*m*n, cudaMemcpyHostToDevice);
cudaMemcpy(d_b, h_b, sizeof(int)*n*k, cudaMemcpyHostToDevice);
unsigned int grid_rows = (m + BLOCK_SIZE - 1) / BLOCK_SIZE;
unsigned int grid_cols = (k + BLOCK_SIZE - 1) / BLOCK_SIZE;
dim3 dimGrid(grid_cols, grid_rows);
dim3 dimBlock(BLOCK_SIZE, BLOCK_SIZE);
//GPU计算,结果放入h_c
gpu_matrix_mult<<
【MindSpore(CUDA编程(四)Global Memory)】}代码中张小白加上了注释,已经介绍得比较清楚了。我们执行下看看:
文章图片
代码以 3X4和4X5的矩阵相乘,得到了3X5的矩阵结果。这个结果跟CPU计算的结果做了对比。显示Pass表示结果是一致的(其实张小白把两个结果都打印的出来,当然也是一致的)这里面有个小TIPS,就是在调用rand()生成随机数的时候,可以使用srand(time(0)) 做随机数种子,这样下次调用的时候跟这次生成的内容就会不一样。如果去掉这句话,每次执行的结果都是一样的。当然,如果在同一秒同时执行,srand(time(0)) 也会导致同时生成的随机数是一样的。这点需要注意。
推荐阅读
- MindSpore:CUDA编程(二)CUDA代码执行原理
- MindSpore:CUDA编程(三)线程层次
- MindSpore(CUDA编程(六)存储单元)
- MindSpore:CUDA编程(五)Event
- 编程语言|2021年2月程序员工资最新出炉,涨了!这下踏实了!
- 人工智能|人工智能、机器人、编程啥关系((科普))
- 计算机专业技术|大数据编程技术——期末复习
- 30秒接入一台PLC设备,用Shifu 快速实现工控软件编程
- 编程语言|2020 ,6 种不死的编程语言!
- 关于编程本质那些事