【发布时间】:2018-03-25 17:06:25
【问题描述】:
我有一个格式如下的文本文件:
ID,Name,Rating
1,A,3
2,B,4
1,A,4
我想在 spark 中找到每个 ID 的平均评分。这是我到目前为止的代码,但它一直给我一个错误:
val Avg_data=spark.sql("select ID, AVG(Rating) from table")
错误:org.apache.sapk.sql.AnalysisException:分组表达式序列为空,并且 'table'.'ID' 不是聚合函数。将 '(avg(CAST(table.'Rating' AS BIGINT)) 包装为 'avg(Rating)')' 在窗口函数中............
【问题讨论】:
-
那是什么错误?您可以通过添加错误消息来更新您的问题吗?
-
@eliasah 刚刚更新了。
-
在查询末尾添加“按 ID 分组”
标签: scala apache-spark apache-spark-sql