【发布时间】:2016-03-20 23:14:49
【问题描述】:
我正在纱线集群上运行 spark。我试图启动历史服务器
./start-history-server.sh
但出现以下错误。
starting org.apache.spark.deploy.history.HistoryServer, logging to /home/abc/spark/spark-1.5.1-bin-hadoop2.6/sbin/../logs/spark-abc-org.apache.spark.deploy.history.HistoryServer-1-abc-Efg.out
failed to launch org.apache.spark.deploy.history.HistoryServer:
at org.apache.spark.deploy.history.FsHistoryProvider.<init>(FsHistoryProvider.scala:47)
... 6 more
full log in /home/abc/spark/spark-1.5.1-bin-hadoop2.6/sbin/../logs/spark-abc-org.apache.spark.deploy.history.HistoryServer-1-abc-Efg.out
我已将 spark.eventLog.enabled = true 和 spark.history.fs.logDirectory 和 spark.eventLog.dir 设置为 hdfs 日志目录。
为什么我无法启动历史服务器?
更新 1:
感谢 stf 告诉我查看日志文件;我不知道它存在!
我意识到我的问题出在 spark-env.sh
中的设置中 export SPARK_HISTORY_OPTS="-Dspark.eventLog.enabled=true -Dspark.eventLog.dir=hdfs:///localhost/eventLogging spark.history.fs.logDirectory=hdfs:///localhost/eventLogging"
正斜杠变成点
Error: Could not find or load main class spark.history.fs.logDirectory=hdfs:...localhost.eventLogging
知道如何防止这种情况发生吗?
更新 2: 感谢stf的帮助解决了这个问题。 spark-env.sh 中的正确设置是
SPARK_HISTORY_OPTS="$SPARK_HISTORY_OPTS -Dspark.eventLog.enabled=true -Dspark.eventLog.dir=hdfs://localhost/eventLogging -Dspark.history.fs.logDirectory=hdfs://localhost/eventLogging"
【问题讨论】:
-
spark-abc-org.apache.spark.deploy.history.HistoryServer-1-abc-Efg.out中的内容。请将日志放在这里,以便有人可以更好地查看 -
错误信息按原样显示。如何增加详细程度?
-
该错误消息显示“完全登录 /home/abc/spark/spark-1.5.1-bin-hadoop2.6/sbin/../logs/spark-abc-org.apache。 spark.deploy.history.HistoryServer-1-abc-Efg.out" - 你看过吗?
-
@ѕтƒ 谢谢,我找到了日志,显然问题是在 spark-env.sh 中将正斜杠 (/) 转换为点 (.)。你知道如何防止这种转化吗?
-
我怀疑是不是因为
spark.history.fs.logDirectory前面缺少-D?
标签: apache-spark hadoop-yarn pyspark