【问题标题】:Using GPU to train model使用 GPU 训练模型
【发布时间】:2017-06-17 20:43:41
【问题描述】:

我对使用 GPU 训练模型有一点了解。 我正在使用 scikit-learn 的 K-means 来训练我的模型。 由于我的数据非常大,是否可以使用 GPU 训练这个模型以减少计算时间? 或者您能否建议任何使用 GPU 功能的方法?

另一个问题是我是否使用 TensorFlow 来构建 K-means,如本博客所示。

https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html

是否会使用 GPU?

提前谢谢你。

【问题讨论】:

  • 你应该有一个启用了 CUDA 的 GPU。不是任何 GPU 都能做到的。
  • 是的。我想知道如何使用它来计算我的模型,因为我的模型不是使用 Tensorflow 的深度学习。
  • 我相信它默认使用 GPU。看到这个:stackoverflow.com/questions/37660312/run-tensorflow-on-cpu
  • scikit-learn 不支持 GPU。不过,在 tensorflow 上实现 kmeans 是可能的。

标签: python tensorflow scikit-learn gpu


【解决方案1】:

检查您的 GPU 是否支持 CUDA:https://developer.nvidia.com/cuda-gpus

到目前为止,Scikit-learn 还不支持 CUDA。您可能想使用 TensorFlow:https://www.tensorflow.org/install/install_linux

我希望这会有所帮助。

【讨论】:

    【解决方案2】:

    如果您有CUDA启用GPU,具有计算能力3.0或更高版本并安装GPU支持的Tensorflow版本,那么它肯定会使用GPU进行培训。

    添加有关NVIDIA要求的信息,以使用GPU支持运行TensorFlow,请检查以下链接:

    https://www.tensorflow.org/install/install_linux#nvidia_requirements_to_run_tensorflow_with_gpu_support

    【讨论】:

      猜你喜欢
      • 2020-09-26
      • 2017-08-19
      • 2018-04-02
      • 2020-08-25
      • 2020-03-26
      • 2021-09-29
      • 2020-11-29
      • 2020-11-27
      • 2021-07-24
      相关资源
      最近更新 更多