【发布时间】:2021-12-27 00:39:40
【问题描述】:
我使用从 Python 的分发文件夹运行的脚本部署了 Apache Spark 3.2.0:
./bin/docker-image-tool.sh -r <repo> -t my-tag -p ./kubernetes/dockerfiles/spark/bindings/python/Dockerfile build
我可以使用 Spark-Submit 在 K8s 下创建一个容器就好了。我的目标是运行为客户端模式与本地模式配置的 spark-submit,并期望为执行程序创建额外的容器。
我创建的映像是否允许这样做,或者我是否需要使用 docker-image 工具创建第二个映像(不带 -p 选项)并在不同的容器中进行配置?
【问题讨论】:
标签: python docker apache-spark kubernetes