【发布时间】:2017-12-19 19:46:41
【问题描述】:
我对@987654322@ 的行为有些不理解。假设我想从熊猫复制这个
import pandas as pd
import dask.dataframe as dd
import random
s = "abcd"
lst = 10*[0]+list(range(1,6))
n = 100
df = pd.DataFrame({"col1": [random.choice(s) for i in range(n)],
"col2": [random.choice(lst) for i in range(n)]})
# I will need an hash in dask
df["hash"] = 2*df.col1
df = df[["hash","col1","col2"]]
def fun(data):
if data["col2"].mean()>1:
data["col3"]=2
else:
data["col3"]=1
return(data)
df1 = df.groupby("col1").apply(fun)
df1.head()
返回
hash col1 col2 col3
0 dd d 0 1
1 aa a 0 2
2 bb b 0 1
3 bb b 0 1
4 aa a 0 2
在 Dask 我试过了
def fun2(data):
if data["col2"].mean()>1:
return 2
else:
return 1
ddf = df.copy()
ddf.set_index("hash",inplace=True)
ddf = dd.from_pandas(ddf, npartitions=2)
gpb = ddf.groupby("col1").apply(fun2, meta=pd.Series())
其中 groupby 导致与 pandas 相同的结果,但我很难将结果合并到保留哈希索引的新列上。 我想得到以下结果
col1 col2 col3
hash
aa a 5 2
aa a 0 2
aa a 0 2
aa a 0 2
aa a 4 2
更新
玩合并我找到了这个解决方案
ddf1 = dd.merge(ddf, gpb.to_frame(),
left_on="col1",
left_index=False, right_index=True)
ddf1 = ddf1.rename(columns={0:"col3"})
如果我必须对几列进行分组,我不确定这将如何工作。 Plus 并不优雅。
【问题讨论】:
-
您的解决方案涉及将计算的 dask df 与另一个 df 合并,这违背了文档中的两个性能建议:dask.pydata.org/en/latest/dataframe-performance.html#joins
-
嗨@knuab,谢谢。我已经看过那个文档,但我找不到任何其他方法来解决我的问题。
标签: python pandas group-by apply dask