【问题标题】:Why spark dataframe.take throw an exception incompatible type?为什么 spark dataframe.take 会抛出异常不兼容的类型?
【发布时间】:2021-12-08 23:52:25
【问题描述】:

我在 Java 中尝试过这个:

Dataset<Row> df1 = spark.read()
                .format("avro")
                .load("mysource_path");

Row[] rows = df1.selectExpr("sum(distance) as total").take(1);

编译器说:

error: incompatible types: Object cannot be converted to Row[]
        Row[] rows = df1.selectExpr("sum(distance) as total").take(1);

【问题讨论】:

    标签: java apache-spark apache-spark-sql


    【解决方案1】:

    在 Java 中,take 方法返回一个 Object,尽管智能感知说它是 Row[]。

    为了解决我做了:

    Row[] rows = (Row[])df1.selectExpr("sum(distancia) as total").take(1);
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2021-04-28
      • 2013-09-04
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多