【发布时间】:2020-09-04 10:34:43
【问题描述】:
有人可以建议我在 spark scala 中加入 2 个数据帧时如何使用过滤器。我正在尝试下面的代码。
var name="abcd"
var last_name="xyz"
val df3 = df1.join(df2, df1("id") === df2("id"))
.filter(df1("name")==='${name}').
filter(df1("last_name")==='${last_name}')
.drop(df1("name"))
.drop(df2("name"))
但出现多个错误。
【问题讨论】:
标签: scala apache-spark apache-spark-sql