【发布时间】:2016-08-15 13:04:21
【问题描述】:
我正在使用 google dataproc 集群运行 spark 作业,脚本在 python 中。
当只有一个脚本(例如test.py)时,我可以使用以下命令提交作业:
gcloud dataproc 作业提交 pyspark --cluster analyze ./test.py
但是现在test.py从自己写的其他脚本导入模块,怎么在命令中指定依赖呢?
【问题讨论】:
标签: pyspark google-cloud-dataproc