【发布时间】:2016-03-09 10:53:41
【问题描述】:
假设我在 Pyspark 中有两个 DataFrames,我想运行一个嵌套的类似 SQL 的 SELECT 查询,在
SELECT * FROM table1
WHERE b IN
(SELECT b FROM table2
WHERE c='1')
现在,我可以使用where 实现选择查询,如
df.where(df.a.isin(my_list))
假设我事先选择了 my_list 元组的值。我将如何一次性执行嵌套查询?
【问题讨论】:
标签: python sql select apache-spark pyspark