【发布时间】:2020-04-29 06:31:01
【问题描述】:
我是下面一段带有 cuDF 的 python 代码来加速这个过程。但是与我的 4 核本地计算机 cpu 相比,我看不出速度有任何差异。 GPU 配置为 4 x NVIDIA Tesla T4
def arima(train):
h = []
for each in train:
model = pm.auto_arima(np.array(ast.literal_eval(each)))
p = model.predict(1).item(0)
h.append(p)
return h
for t_df in pd.read_csv("testset.csv",chunksize=1000):
t_df = cudf.DataFrame.from_pandas(t_df)
t_df['predicted'] = arima(t_df['prev_sales'])
我在这里缺少什么?
【问题讨论】:
-
GPU 计算由两部分组成:将数据发送到 GPU 和计算本身。两者都需要一些时间。对于像您这样的简单计算,GPU 上的计算甚至可能比 CPU 上花费更多的时间。
-
我有 200 万条记录,所以我选择了 GPU。在这种情况下,如何利用 GPU @SergeyBushmanov 发挥最大性能
-
利用 GPU @SergeyBushmanov 的最大性能所需的任何代码级别更改