【发布时间】:2016-12-25 05:18:31
【问题描述】:
我尝试在 YARN-CLUSTER(2 个节点) 上运行 Spark 应用程序,但似乎这 2 个节点不平衡,因为只有 1 个节点在工作,而另一个节点没有.
我的脚本:
spark-submit --class org.apache.spark.examples.SparkPi
--master yarn-cluster --deploy-mode cluster --num-executors 2
--driver-memory 1G
--executor-memory 1G
--executor-cores 2 spark-examples-1.6.1-hadoop2.6.0.jar 1000
我看到我的一个节点正在工作,但另一个没有,所以这是不平衡:
有什么想法吗?
【问题讨论】:
标签: hadoop apache-spark cluster-computing hadoop-yarn