【发布时间】:2019-04-06 13:37:09
【问题描述】:
我有如下格式的json流数据
| A | B |
|-------|------------------------------------------|
| ABC | [{C:1, D:1}, {C:2, D:4}] |
| XYZ | [{C:3, D :6}, {C:9, D:11}, {C:5, D:12}] |
我需要把它转换成下面的格式
| A | C | D |
|-------|-----|------|
| ABC | 1 | 1 |
| ABC | 2 | 4 |
| XYZ | 3 | 6 |
| XYZ | 9 | 11 |
| XYZ | 5 | 12 |
要实现这一点,请按照上一个问题的建议执行转换。
val df1 = df0.select($"A", explode($"B")).toDF("A", "Bn")
val df2 = df1.withColumn("SeqNum", monotonically_increasing_id()).toDF("A", "Bn", "SeqNum")
val df3 = df2.select($"A", explode($"Bn"), $"SeqNum").toDF("A", "B", "C", "SeqNum")
val df4 = df3.withColumn("dummy", concat( $"SeqNum", lit("||"), $"A"))
val df5 = df4.select($"dummy", $"B", $"C").groupBy("dummy").pivot("B").agg(first($"C"))
val df6 = df5.withColumn("A", substring_index(col("dummy"), "||", -1)).drop("dummy")
现在我尝试将结果保存到 HDFS 中的 csv 文件
df6.withWatermark("event_time", "0 seconds")
.writeStream
.trigger(Trigger.ProcessingTime("0 seconds"))
.queryName("query_db")
.format("parquet")
.option("checkpointLocation", "/path/to/checkpoint")
.option("path", "/path/to/output")
// .outputMode("complete")
.start()
现在我收到以下错误。
线程“main”中的异常 org.apache.spark.sql.AnalysisException:当流式 DataFrames/DataSets 上没有水印的流式聚合时,不支持附加输出模式;; EventTimeWatermark event_time#223:时间戳、间隔
我的疑问是我没有执行任何聚合,这将要求它在该行的处理时间之外存储聚合值。为什么我会收到此错误?我可以将水印保持为 0 秒吗?
对此的任何帮助将不胜感激。
【问题讨论】:
标签: apache-spark apache-spark-sql spark-streaming