【发布时间】:2016-12-27 14:11:38
【问题描述】:
我正在尝试在家中建立一个集群以满足我的个人需求(学习)。首先,我制作了 Hadoop+Yarn。 MR2 正在工作。第二 - 我正在尝试添加 Spark,但收到有关缺少类的错误。
[root@master conf]# spark-shell --master yarn-client
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
...
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream
我关注了这些instructions并添加到spark-env.sh
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop)
更多信息:
Cent_OS.86_64
Hadoop 目录:/usr/local/hadoop
Hadoop 版本:
[root@master conf]# hadoop version
Hadoop 2.7.1
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r 15ecc87ccf4a0228f35af08fc56de536e6ce657
Compiled by jenkins on 2015-06-29T06:04Z
Compiled with protoc 2.5.0
From source with checksum fc0a1a23fc1868e4d5ee7fa2b28a58a
This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-2.7.1.jar
Manual 说我必须有 2 个变量:HADOOP_CONF_DIR or YARN_CONF_DIR
[root@master conf]# echo $HADOOP_CONF_DIR
/usr/local/hadoop/etc/hadoop
[root@master conf]# echo $YARN_CONF_DIR
/usr/local/hadoop/etc/hadoop
Spark 是 spark-1.5.0-bin-without-hadoop.tgz -> /usr/local/spark
我正在尝试在 hadoop+yarn 启动并可用的同时启动 spark-shell --master yarn-client http://master:50070/dfshealth.html#tab-overview http://master:8088/cluster/apps http://master:19888/jobhistory
如果重要的话,我没有安装 Scala。 任何想法我在 Spark 设置中会错过什么?谢谢。
【问题讨论】:
标签: hadoop apache-spark hadoop-yarn