【发布时间】:2020-03-10 00:27:32
【问题描述】:
目前我有几个 spark-submit *.sh 文件。每个文件都会生成一个用于下一个文件的表。
有没有办法一个接一个地依次运行这些文件?
到目前为止,我尝试在一个文件中一个接一个地添加所有 Spark 提交代码并尝试
sh spark_submit_ordered_combined.sh
在终端中。 但这会一次性启动所有代码。
任何帮助都会很棒。
【问题讨论】:
-
作业完成后Spark submit 退出,你是在后台启动spark-submit 吗?如果没有,你能显示你的 bash 脚本的内容吗?
标签: python python-3.x pyspark