【发布时间】:2017-05-08 13:20:58
【问题描述】:
我正在使用 spark submit 提交一个包含 shell 脚本执行的 sparkjob。 我将脚本执行的逻辑写为:
val paraname = encFile.substring(0,encFile.length()-4)
val pb = new ProcessBuilder("/home/roswal01/gpghdfs.sh",paraname)
val p : Process = pb.start()
但是当我通过我的 spark-job 运行它时,它给了我一个错误
java.io.IOException: Cannot run program
这可能是什么问题?
【问题讨论】:
-
那个 shell 脚本存储在哪里?
-
@DavidSchuler 在我的 unix 主页上
-
如果您使用的是 HDFS,但该脚本位于 HDFS 中,请尝试从那里引用它
-
@DavidSchuler 也尝试过同样的错误。
标签: java scala shell hadoop apache-spark