【发布时间】:2023-03-02 21:12:02
【问题描述】:
我正在尝试在 C++ 中运行模型推理。
我使用 torch.jit.trace 成功地在 Python 中跟踪模型。
我可以使用 torch::jit::load() 在 C++ 中加载模型。
我能够在 cpu 和 gpu 上执行推理,但是起点始终是 torch::from_blob 方法,这似乎是在创建 cpu 端张量。
为了提高效率,我想将cv::cuda::GpuMat 直接转换/复制到 CUDA Tensor。我一直在挖掘 pytorch tests 和 docs 以寻找方便的例子,但找不到。
问题: 如何从 cv::cuda::GpuMat 创建 CUDA 张量?
【问题讨论】: