【发布时间】:2017-06-17 20:43:41
【问题描述】:
我对使用 GPU 训练模型有一点了解。 我正在使用 scikit-learn 的 K-means 来训练我的模型。 由于我的数据非常大,是否可以使用 GPU 训练这个模型以减少计算时间? 或者您能否建议任何使用 GPU 功能的方法?
另一个问题是我是否使用 TensorFlow 来构建 K-means,如本博客所示。
https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html
是否会使用 GPU?
提前谢谢你。
【问题讨论】:
-
你应该有一个启用了 CUDA 的 GPU。不是任何 GPU 都能做到的。
-
是的。我想知道如何使用它来计算我的模型,因为我的模型不是使用 Tensorflow 的深度学习。
-
我相信它默认使用 GPU。看到这个:stackoverflow.com/questions/37660312/run-tensorflow-on-cpu
-
scikit-learn 不支持 GPU。不过,在 tensorflow 上实现 kmeans 是可能的。
标签: python tensorflow scikit-learn gpu