【发布时间】:2019-01-31 02:19:38
【问题描述】:
我有 spark yarn 客户端提交作业,当它提交作业时,它会在我的“spark.local.dir”下创建一个目录,其中包含如下文件:
__spark_conf__8681611713144350374.zip
__spark_libs__4985837356751625488.zip
有没有办法自动清理这些?每当我提交火花作业时,我都会在同一个文件夹中再次看到这些新条目。这淹没了我的目录,我应该设置什么来自动清除它?
我什至在 SO 上查看了几个在线链接,但找不到解决此问题的方法。我发现的只是一种指定目录路径的方法 “spark.local.dir”。
【问题讨论】:
标签: apache-spark hadoop