【发布时间】:2016-05-10 17:34:19
【问题描述】:
我在 Openstack 上创建了一个 Spark 集群,该集群在 Ubuntu14.04 上运行,内存为 8gb。我创建了两个每个 3gb 的虚拟机(为父操作系统保留 2gb)。此外,我从第一台虚拟机创建了一个 master 和 2 个 worker,从第二个虚拟机创建了 3 个 worker。
spark-env.sh 文件具有基本设置
export SPARK_MASTER_IP=10.0.0.30
export SPARK_WORKER_INSTANCES=2
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=1
每当我使用 start-all.sh 部署集群时,我都会“无法启动 org.apache.spark.deploy.worker.Worker”,有时会“无法启动 org.apache.spark.deploy.master。掌握”。当我看到日志文件以查找错误时,我得到以下信息
Spark 命令:/usr/lib/jvm/java-7-openjdk-amd64/bin/java -cp >/home/ubuntu/spark-1.5.1/sbin/../conf/:/home/ubuntu /spark->1.5.1/assembly/target/scala-2.10/spark-assembly-1.5.1->hadoop2.2.0.jar:/home/ubuntu/spark-1.5.1/lib_managed/jars/datanucleus-api- >jdo-3.2.6.jar:/home/ubuntu/spark-1.5.1/lib_managed/jars/datanucleus-core->3.2.10.jar:/home/ubuntu/spark-1.5.1/lib_managed/jars/ datanucleus-rdbms->3.2.9.jar -Xms1g -Xmx1g -XX:MaxPermSize=256m >org.apache.spark.deploy.master.Master --ip 10.0.0.30 --port 7077 --webui->port 8080
虽然我收到了失败消息,但主人或工人在几秒钟后变得活跃。
谁能解释一下原因?
【问题讨论】:
-
我将日志从 ERROR 切换到 INFO,我看到了两个警告。 1.你的主机名worker1解析为一个环回地址:127.0.1.1;使用 10.0.0.30 代替(在接口道德上)和 2. 无法为您的平台加载 native-hadoop 库......在适用的情况下使用内置 java 类。这些会干扰集群部署吗?
标签: ubuntu apache-spark cluster-computing