【发布时间】:2017-12-08 10:40:58
【问题描述】:
我正在使用 Apache Mesos 在集群模式下运行 Apache Spark。但是,当我启动 Spark-Shell 运行一个简单的测试命令 (sc.parallelize(0 to 10, 8).count) 时,我收到以下警告消息:
16/03/10 11:50:55 WARN TaskSchedulerImpl:初始作业未接受任何资源;检查您的集群 UI 以确保工作人员已注册并拥有足够的资源
如果我查看 Mesos WebUI,我可以看到 Spark-Shell 被列为框架,并且我列出了一个从属设备(我自己的机器)。任何帮助如何解决它?
【问题讨论】:
-
你在slave上安装Spark了吗?您应该使用 Spark 安装工作节点。
-
尝试在 mesos-slave 日志中寻找更多问题。
标签: apache-spark apache-spark-sql mesos mesosphere