【问题标题】:Aggregate function in spark-sql not found未找到 spark-sql 中的聚合函数
【发布时间】:2015-10-15 05:46:09
【问题描述】:

我是 Spark 的新手,我正在尝试使用一些聚合功能,例如 sum 或 avg。我在 spark-shell 中的查询完美运行:

val somestats = pf.groupBy("name").agg(sum("days")).show()

当我尝试从 scala 项目运行它时,它不起作用,抛出错误消息

not found: value sum

我已经尝试添加

import sqlContext.implicits._
import org.apache.spark.SparkContext._

就在命令之前,但它没有帮助。我的 spark 版本是 1.4.1 我错过了什么吗?

【问题讨论】:

    标签: scala apache-spark apache-spark-sql


    【解决方案1】:

    你需要这个导入:

    import org.apache.spark.sql.functions._
    

    【讨论】:

    • 是的,就是这样!我在 spark-sql 文档中没有找到有关此导入的任何信息。谢谢!。
    【解决方案2】:

    你可以直接在GroupedData上使用sum方法(groupBy返回这个类型)

    val somestats = pf.groupBy("name").sum("days").show()
    

    【讨论】:

    • 如何设置别名天数?因为它返回总和(天)
    • 找出,toDF() 是选择,rdd.toDF("name", "days")
    猜你喜欢
    • 2015-10-16
    • 2021-04-07
    • 2018-01-06
    • 1970-01-01
    • 2018-01-11
    • 2017-05-10
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多