【发布时间】:2012-11-20 11:55:28
【问题描述】:
在为 CUDA 内核计时时,以下内容不起作用,因为内核在执行时不会阻塞 CPU 程序执行:
start timer
kernel<<<g,b>>>();
end timer
我已经看到了三种(成功地)为 CUDA 内核计时的基本方法:
(1) 两个 CUDA eventRecords。
float responseTime; //result will be in milliseconds
cudaEvent_t start; cudaEventCreate(&start); cudaEventRecord(start); cudaEventSynchronize(start);
cudaEvent_t stop; cudaEventCreate(&stop);
kernel<<<g,b>>>();
cudaEventRecord(stop); cudaEventSynchronize(stop);
cudaEventElapsedTime(&responseTime, start, stop); //responseTime = elapsed time
(2) 一个 CUDA eventRecord。
float start = read_timer(); //helper function on CPU, in milliseconds
cudaEvent_t stop; cudaEventCreate(&stop);
kernel<<<g,b>>>();
cudaEventRecord(stop); cudaEventSynchronize(stop);
float responseTime = read_timer() - start;
(3) deviceSynchronize 而不是 eventRecord。 (可能仅在在单个流中使用编程时有用。)
float start = read_timer(); //helper function on CPU, in milliseconds
kernel<<<g,b>>>();
cudaDeviceSynchronize();
float responseTime = read_timer() - start;
我通过实验验证了这三种策略产生相同的计时结果。
问题:
- 这些策略的权衡是什么?这里有任何隐藏的细节吗?
- 除了对多个流中的多个内核进行计时之外,使用两个事件记录和
cudaEventElapsedTime()函数有什么优势吗?
您可能可以发挥想象力来弄清楚read_timer() 做了什么。不过,提供一个示例实现也无妨:
double read_timer(){
struct timeval start;
gettimeofday( &start, NULL ); //you need to include <sys/time.h>
return (double)((start.tv_sec) + 1.0e-6 * (start.tv_usec))*1000; //milliseconds
}
【问题讨论】:
标签: cuda gpgpu nvidia benchmarking