【发布时间】:2017-08-24 12:12:04
【问题描述】:
由于 CUDA 7.5/8.0 和配备 Pascal GPU 的设备,CUDA 支持开箱即用的半精度 (FP16) 数据类型。此外,CUBLAS 中的许多 BLAS 调用都支持半精度类型,例如GEMM 操作可用作cublasHgemm。我的问题是主机不支持半精度类型。是像cublasSetMatrix 这样在上传到设备期间进行转换的已经实施的解决方案吗?或者是否有必要通过将浮动上传与 CUDA 内核进行截断以浮动来组合来创建一个棘手的实现?
【问题讨论】:
标签: cuda floating-point