【发布时间】:2016-05-02 05:33:24
【问题描述】:
我有一个简单的 Spark 集群 - 一个主节点和一个从节点。 Worker 是空闲的,没有繁忙的资源。
但是当我尝试执行任何应用程序时(例如 spark-shell 中的 'sc.parallelize(1 to 10).foreach(println)'),我看到以下错误:
WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
但是,当应用程序在与从属服务器相同的服务器上启动时,它会成功运行。看起来某事监听了错误的网络接口。
配置是默认的,用来自github的spark克隆。
我开始master的方式如下:
192.168.111.204@spark > ./sbin/start-master.sh -h 192.168.111.204
奴隶:
192.168.111.230@spark > ./sbin/start-slave.sh spark://192.168.111.204:7077 -h 192.168.111.230
应用:
192.168.111.229@spark > ./bin/spark-shell --master spark://192.168.111.204:7077
我应该检查什么?
UPD:刚刚在两台虚拟机上尝试过相同的操作。工作正常。可能服务器的主机名有问题。
【问题讨论】:
标签: scala apache-spark