【发布时间】:2018-01-10 20:49:55
【问题描述】:
我使用的是 Spark 2.1.1 独立集群,
虽然我的集群 (Cores in use: 80 Total, 51 Used) 中有 29 个空闲核心,但在使用 --total-executor-cores 16 提交新的 spark 作业时,此配置不会 生效,并且仅使用 6 个核心提交的作业..
我错过了什么? (删除检查点没有帮助)
这是我的 spark-submit 命令:
PYSPARK_PYTHON="/usr/bin/python3.4"
PYSPARK_DRIVER_PYTHON="/usr/bin/python3.4" \
/opt/spark/spark-2.1.1-bin-hadoop2.7/bin/spark-submit \
--master spark://XXXX.XXXX:7077 \
--conf "spark.sql.shuffle.partitions=2001" \
--conf "spark.port.maxRetries=200" \
--conf "spark.executorEnv.PYTHONHASHSEED=0" \
--executor-memory 24G \
--total-executor-cores 16 \
--driver-memory 8G \
/home/XXXX/XXXX.py \
--spark_master "spark://XXXX.XXXX:7077" \
--topic "XXXX" \
--broker_list "XXXX" \
--hdfs_prefix "hdfs://XXXX"
【问题讨论】:
标签: apache-spark pyspark spark-submit apache-spark-standalone