【发布时间】:2018-10-03 06:21:29
【问题描述】:
我正在使用 AWS,并且我有使用 Spark 和 Hive 的工作流程。我的数据按日期分区,所以每天我的 S3 存储中都有一个新分区。 我的问题是有一天加载数据失败,我必须重新执行该分区。接下来是写的代码:
df // My data in a Dataframe
.write
.format(getFormat(target)) // csv by default, but could be parquet, ORC...
.mode(getSaveMode("overwrite")) // Append by default, but in future it should be Overwrite
.partitionBy(partitionName) // Column of the partition, the date
.options(target.options) // header, separator...
.option("path", target.path) // the path where it will be storage
.saveAsTable(target.tableName) // the table name
我的流程中会发生什么?如果我使用 SaveMode.Overwrite,整个表将被删除,我将只保存分区。如果我使用 SaveMode.Append 我可能有重复的数据。
搜索了一下,发现Hive支持这种覆盖,只有分区,但是用hql语句,我没有。
我们需要 Hive 上的解决方案,所以我们不能使用这个 alternative option(直接到 csv)。
我发现这个Jira ticket 可以解决我遇到的问题,但是尝试使用最新版本的 Spark (2.3.0),情况是一样的。它会删除整个表并保存分区,而不是覆盖我的数据所具有的分区。
为了更清楚地说明这一点,这是一个例子:
由 A 分区
数据:
| A | B | C |
|---|---|---|
| b | 1 | 2 |
| c | 1 | 2 |
表:
| A | B | C |
|---|---|---|
| a | 1 | 2 |
| b | 5 | 2 |
我想要的是:在表中,分区a留在表中,分区b用数据覆盖,并添加分区c。有没有使用 Spark 的解决方案可以做到这一点?
我的最后一个选择是首先删除要保存的分区,然后使用 SaveMode.Append,但如果没有其他解决方案,我会尝试这个。
【问题讨论】:
标签: scala amazon-web-services apache-spark hadoop hive