【问题标题】:Display via Tesla graphic card通过 Tesla 显卡显示
【发布时间】:2017-11-24 06:01:06
【问题描述】:

我想在监视器上显示处理后的视频。对于 CUDA 中的视频处理,我正在考虑购买 Nvidia Tesla 级卡,但它没有任何视频输出端口。有没有办法在 Tesla GPU 卡上创建帧缓冲区,然后将其传输到系统内存并通过主板显卡显示?

PS:我不想在 CPU 上计算任何东西,以获得近乎实时的性能。

【问题讨论】:

标签: cuda nvidia


【解决方案1】:

对于视频处理(和显示),鉴于我对您的问题的理解,特斯拉可能不是您的最佳选择。

  1. Tesla 卡价格昂贵,(部分)因为双精度支持,视频处理不需要它
  2. Tesla 卡没有任何视频端口,这意味着您必须将帧发送回系统(显然可以)。这意味着性能损失,以及需要编写和维护的更多代码。

您看过 Quadro 产品线吗?它们具有显示输出,通常用于此类应用程序(但仍然很昂贵)。

如果您想显示,那可能意味着您在桌面应用程序上工作。所以你的显卡不能在全计算负载下 24/7 工作?在这种情况下,为什么不用 GeForce?

【讨论】:

  • 我正在使用深度学习来处理帧,Nvidia 推荐使用 tesla 产品进行计算,并且没有任何关于 quadro 卡的基准,因为它们主要用于渲染。我正在探索通过 tesla 展示的方式,如果不可用或消耗更多资源,我将转向 quadro。
  • 嗯,深度学习是一个完全不同的话题。对于训练,特斯拉肯定是你最好的选择,但对于推理,我猜不是。你需要的可能是很多 FP16 单元,所以如果你绝对需要在同一张卡上进行推理和训练,我会考虑 quadro gp100
  • 较新的 tesla 卡针对推理(Tesla P4 和 Tesla P40)进行了优化,也支持 tensorRT 推理引擎。 GP100 也太贵了。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2017-03-30
  • 1970-01-01
  • 2019-04-26
  • 1970-01-01
相关资源
最近更新 更多