【发布时间】:2015-07-25 00:09:20
【问题描述】:
对于我可以设置 CUDA 内核的网格大小是否有限制?我遇到了一个问题,即内核无法以 33 x 33 的网格大小启动,但能够在网格大小为 32 x 32 时启动。有什么原因会发生这种情况吗?或者,将块数从 32 x 32 更改为 33 x 33 是否有可能打破其他限制?
dim3 blockSize(8, 8);
dim3 gridSize(32, 32);
cudaDeviceSynchronize();
set_start<<<gridSize, blockSize>>>(some_params);
以上工作。
dim3 blockSize(8, 8);
dim3 gridSize(33, 33);
cudaDeviceSynchronize();
set_start<<<gridSize, blockSize>>>(some_params);
上述方法不起作用。
内核和主要:
__global__
void set_start(double * const H , double * const HU , double * const HV ,
double * const E , const int Na)
{
int j = threadIdx.x + blockIdx.x*blockDim.x + 1;
int i = threadIdx.y + blockIdx.y*blockDim.y + 1;
if(i >= Na-1 || j >= Na-1)
return;
H[i*Na+j] = 1.0 + exp(-100.0*((E[j-1]-0.75)*(E[j-1]-0.75)+(E[i-1]-0.75)*(E[i-1]-0.75))) + 0.5*exp(-100.0*((E[j-1]-0.75)*(E[j-1]-0.75)+(E[i-1]-0.25)*(E[i-1]-0.25)));
HU[i*Na+j] = 0;
HV[i*Na+j] = 0;
}
int main(int argc, char** argv){
double* E_d;
cudaMalloc(&E_d, sizeof(double) * (Nh+1));
set_E<<<64, (Nh/64) + 1>>>(E_d, dx, Nh);
int Na = 259;
double *H_d, *HU_d, *HV_d, *Ht_d, *HUt_d, *HVt_d;
cudaMalloc(&H_d , sizeof(double) * Na * Na);
cudaMalloc(&HU_d, sizeof(double) * Na * Na);
cudaMalloc(&HV_d, sizeof(double) * Na * Na);
dim3 blockSize(8, 8);
//dim3 gridSize(((Na-1)/blockSize.x) + 1, ((Na-1)/blockSize.y) + 1);
//dim3 gridSize(33, 33);
dim3 gridSize(32, 32);
cudaDeviceSynchronize();
set_start<<<blockSize, gridSize>>>(H_d, HU_d, HV_d, E_d, Na);
}
这是在 CUDA 7.0 上。
【问题讨论】:
-
你是指块大小而不是网格大小吗? 1024 是自 cc 2.0 以来每个块的最大线程数。
-
@void_ptr 可能。介绍性示例使用单个块并不少见(也许是为了简化
blockIdx/threadIdx...-hassle?),当人们使用“模板”之类的示例时,他们很快就会达到 max-threads-per-block-limit 实际上想要增加grid的大小。 -
不,我特别指的是网格大小。这是我今天遇到的一个非常奇怪的问题。
-
是的,有限制。请参阅编程指南中的表 11 和 12 或运行 deviceQuery Cuda 示例代码。如果您想知道为什么特定代码不起作用,您应该提供 MCVE
-
好吧,除了最大的最大块数吗?
标签: cuda