【发布时间】:2020-03-13 01:34:52
【问题描述】:
我在 GCP 上使用 Jupyter(通过 AI 平台设置简单的方法)从 scikit-garden 训练 MondrianForestRegressor。我的数据集大约是 450000 x 300,并且使用机器按原样进行训练,即使使用并行性 n_jobs=-1(32 个 CPU,208GB RAM)也比我想要的慢得多。
我连接了一个 GPU(2x NVIDIA Tesla T4),重新启动了实例并再次尝试。训练速度似乎不受此更改的影响。
- 在 Jupyter 中训练模型以确保实际使用 GPU 时,我需要做些什么吗?
- GPU 甚至对基于树的方法有用吗?有文献表明它们是 (https://link.springer.com/chapter/10.1007/978-3-540-88693-8_44),但我不完全理解使 GPU 更适合不同类型算法的复杂性,除了它们可以很好地处理巨型矩阵计算,例如用于深度学习。
【问题讨论】:
标签: python google-cloud-platform scikit-learn gpu random-forest