ahu-lichang

 

win10下Spark的环境搭建

2018-08-19  18:36:45


一、jdk 1.8.0 安装与配置

二、scala 2.11.8 安装与配置http://www.scala-lang.org/download/2.11.8.html

上面两步见《win10下安装scala

三、spark 2.3.0 安装与配置

1、下载spark:官网地址:http://spark.apache.org/downloads.html  

2、下载完成后解压到D盘根目录下即可。D:\spark-2.3.0-bin-hadoop2.6。

3、配置Path:将D:\spark-2.3.0-bin-hadoop2.6\bin添加到Path中。

4、通过spark-shell进入到spark交互式命令行模式下

上面可以看见安装的scala版本、jdk版本、spark版本。

注意:上面出现了异常信息,是由于hadoop导致的。所以还要下载安装hadoop进行相关配置。

 

四、hadoop 2.6.4 安装与配置

1、下载hadoop:官方地址:http://hadoop.apache.org/releases.html

2、解压到D盘根目录下。

3、配置环境变量:HADOOP_HOME 和 Path。

4、winutils下载:https://github.com/steveloughran/winutils

下载对应版本的bin目录将hadoop文件夹中的bin目录替换掉。

5、再次spark-shell,就不会出现异常信息了。

 

6、访问webUI:

 

 

这样win10环境下本地的spark环境就搭建完成了!!!


下面就可以编程学习了。。。。。

https://blog.csdn.net/u011513853/article/details/52896230 ( IDEA和maven)

 

分类:

技术点:

相关文章: