tencent-cloud-native

背景

qGPU 是腾讯云推出的 GPU 共享技术,支持在多个容器间共享 GPU卡,并提供容器间显存、算力强隔离的能力,从而在更小粒度的使用 GPU 卡的基础上,保证业务安全,达到提高 GPU 使用率、降低客户成本的目的。

qGPU on TKE 依托腾讯云 TKE 对外开源的 Nano GPU 调度框架,可实现对 GPU 算力与显存的细粒度调度,并支持多容器共享 GPU 与多容器跨 GPU 资源分配。同时依赖底层强大的 qGPU 隔离技术,可做到 GPU 显存和算力的强隔离,在通过共享使用 GPU 的同时,尽最大可能保证业务性能与资源不受干扰。

功能优势

qGPU 方案通过对 NVIDIA GPU 卡上任务更有效的调度,达到给多个容器共享使用的目的,支持的功能如下:

灵活性:用户可以*配置 GPU 的显存大小和算力占比

云原生:支持标准的 Kubernetes,兼容 NVIDIA Docker 方案

兼容性:镜像不修改/CUDA 库不替换/业务不重编,易部署,业务无感知

高性能:在底层对 GPU 设备进行操作,高效收敛,吞吐接近0损耗

强隔离:支持显存和算力的严格隔离,业务共享不受影响

技术架构

qGPU on TKE 使用 Nano GPU 调度框架,通过Kubernetes扩展调度机制,同时支持 GPU 算力与显存资源调度。并且依赖 Nano GPU 的容器定位机制,支持精细化 GPU 卡调度,同时支持多容器 GPU 卡共享分配与多容器 GPU 跨卡分配。

qGPU 直接采用英伟达 GPU 底层硬件特性进行调度,实现细粒度算力隔离,打破传统上 CUDA API 劫持方案的只能以 CUDA Kernel 为粒度进行算力隔离的限制,提供更好的 QoS 保证。

客户收益

  1. 多任务灵活共享 GPU,提升利用率
  2. GPU 资源强隔离,业务共享不受影响
  3. 完全面向 Kubernetes,业务使用零成本

未来规划

支持细粒度资源监控:qGPU on TKE 将支持对 Pod 和容器级的 GPU 使用率采集,实现更细粒度的资源监控和与 GPU 弹性能力的整合

支持在离线混部:qGPU on TKE 将支持在线业务和离线业务的高低优先级混部,最大限度地提升 GPU 利用率

支持 qGPU 算力池化:基于 qGPU 的 GPU 算力池化,实现 CPU、内存资源与异构计算资源解耦

内测申请

qGPU 已经开放免费内测,欢迎添加腾讯云原生小助手:TKEplatform,备注”qGPU内测申请“进行试用!

关于我们

更多关于云原生的案例和知识,可关注同名【腾讯云原生】公众号~

福利:公众号后台回复【手册】,可获得《腾讯云原生路线图手册》&《腾讯云原生最佳实践》~

【腾讯云原生】云说新品、云研新术、云游新活、云赏资讯,扫码关注同名公众号,及时获取更多干货!!

分类:

技术点:

相关文章: