【发布时间】:2016-02-09 12:27:59
【问题描述】:
我正在尝试在 Dataproc 集群上运行 Spark 作业,但由于 Yarn 配置错误,Spark 无法启动。
从 shell(本地主机上)运行“spark-shell”时,以及从本地计算机通过 web-GUI 和 gcloud 命令行实用程序上传作业时,我收到以下错误:
15/11/08 21:27:16 ERROR org.apache.spark.SparkContext: Error initializing SparkContext.
java.lang.IllegalArgumentException: Required executor memory (38281+2679 MB) is above the max threshold (20480 MB) of this cluster! Please increase the value of 'yarn.s
cheduler.maximum-allocation-mb'.
我尝试修改/etc/hadoop/conf/yarn-site.xml 中的值,但没有任何改变。我认为它不会从该文件中提取配置。
我已经在多个站点(主要是欧洲)尝试了多个集群组合,但我只让它与低内存版本(4 核,15 GB 内存)一起使用。
即这只是配置为内存高于 yarn 默认允许的节点上的问题。
【问题讨论】:
标签: hadoop google-cloud-platform google-cloud-dataproc