【发布时间】:2017-01-29 09:16:42
【问题描述】:
我正在浏览 spark guide 2.1.0 并看到以下行 在http://spark.apache.org/docs/latest/submitting-applications.html 目前,单机模式不支持 Python 应用的集群模式。
但在下面他们有一个例子 在具有监督的集群部署模式下在 Spark 独立集群上运行
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://207.184.161.138:7077 \
--deploy-mode cluster \
--supervise \
--executor-memory 20G \
--total-executor-cores 100 \
/path/to/examples.jar \
1000
现在我很困惑...他们说集群模式不支持用于 python 应用程序的 spark 独立集群,但另一方面,他们给出了一个示例,他们有 deploye-mode = cluster for python 应用程序带火花独立集群 如果我的解释有误,谁能纠正我??
【问题讨论】:
-
是的,它支持。
--deploy-mode仅特定于驱动程序位置。它不会影响语言和集群管理器。 check this post
标签: apache-spark