【发布时间】:2018-05-04 18:01:44
【问题描述】:
当 spark 无法从 _spark_metadata 文件夹中找到文件时,我在生产中遇到检查点问题
18/05/04 16:59:55 INFO FileStreamSinkLog: Set the compact interval to 10 [defaultCompactInterval: 10]
18/05/04 16:59:55 INFO DelegatingS3FileSystem: Getting file status for 's3u://data-bucket-prod/data/internal/_spark_metadata/19.compact'
18/05/04 16:59:55 ERROR FileFormatWriter: Aborting job null.
java.lang.IllegalStateException: s3u://data-bucket-prod/data/internal/_spark_metadata/19.compact doesn't exist when compacting batch 29 (compactInterval: 10)
已经有question asked,但目前没有解决方案。
在检查点文件夹中,我看到第 29 批尚未提交,所以我可以从检查点的 sources、state 和/或 offsets 中删除一些内容,以防止 spark 由于缺少 _spark_metadata/19.compact 文件而失败吗?
【问题讨论】:
标签: apache-spark spark-structured-streaming