【发布时间】:2021-05-24 09:15:37
【问题描述】:
我已经在数据块中的 pyspark notebook 中连接了 MongoDB,然后
rating.createOrReplaceTempView("rat")
使用这个用过的 spark SQL
lan = spark.sql("select language from (select language, avg(imdbRating), max(avg(imdbRating)) as m from rat group by language) group by language having avg(imdbRating) = m").show()
它正在抛出这个错误:
分析异常:不允许在另一个聚合函数的参数中使用聚合函数。请在子查询中使用内部聚合函数。;;
知道我哪里出错了。
编辑: 结果如下
+--------------------+
| language|
+--------------------+
|English, Dutch, F...|
+--------------------+
【问题讨论】:
标签: sql mongodb apache-spark pyspark apache-spark-sql