1、下载spark安装包

        下面我提供我使用的1.6.3版本的spark安装包。
        链接:https://pan.baidu.com/s/14X12wjnvgX1o8v4qTFSccA
        提取码:1432

2、解压、改名

        把文件放置到CentOs上,使用命令tar -zxvf spark-1.6.3-bin-hadoop2.6.tgz解压下载的压缩包,然后通过命令mv spark-1.6.3-bin-hadoop2.6 spark-1.6.3把刚刚解压出来的文件夹进行改名操作。操作成功后,如下图:
        Spark集群搭建

3、修改配置文件

        进入spark安装包的conf目录,使用mv命令将spark-env.sh.template改名为spark-env.sh。改名成功后进入spark-env.sh文件。配置如下:

    SPARK_MASTER_IP=node01
    SPARK_MASTER_PORT=7077
    SPARK_MASTER_WEBUI_PORT=8080
    SPARK_WORKER_CORES=3
    SPARK_WORKER_MEMORY=2g
    SPARK_WORKER_PORT=7078
    SPARK_WORKER_WEBUI_PORT=8081
    SPARK_WORKER_INSTANCES=1
    SPARK_WORKER_DIR=/opt/software/spark/spark-1.6.3/work
    HADOOP_CONF_DIR=$HADOOP_HOME

        Spark集群搭建

4、将配置好的安装包同步到其他节点

        进入spark安装包外,直接使用scp命令将配置好的安装包直接推送到其他节点。
        scp -r spark-1.6.3 node02:`pwd`
        scp -r spark-1.6.3 node03:`pwd`
        scp -r spark-1.6.3 node04:`pwd`

5、修改启动命令

        为了避免命令冲突,我们在配置环境变量前应先进入sbin目录下,使用mv start-all.sh start-spark.sh将启动命令start-all.sh更改为start-spark.sh

6、配置环境变量

        通过vim ~/.bashrc命令可以在用户环境变量中设置spark的环境变量。如下图:
        
Spark集群搭建

7、启动集群

        在node01节点通过命令start-spark.sh启动spark集群。
Spark集群搭建
        启动之后可以通过node01:8080在web页面查看效果,如下图:
Spark集群搭建

8、提交测试

把Application提交到集群中运行。这里运行求π的算子。这里运行命令spark-submit --master spark://node01:7077 --class org.apache.spark.examples.SparkPi /opt/software/spark/spark-1.6.3/lib/spark-examples-1.6.3-hadoop2.6.0.jar运行结果如图:
Spark集群搭建

相关文章:

  • 2021-11-07
  • 2021-08-09
  • 2021-09-22
猜你喜欢
  • 2021-08-08
  • 2021-07-05
  • 2021-12-07
相关资源
相似解决方案