1、安装jdk

  因为spark是依赖java环境的,所以在安装spark之前你先确保你的电脑上有java环境。

  具体怎么操作,百度"jdk安装"

2、安装spark

  首先到官网下载相应的spark版本,建议直接使用spark集成环境

  官网:http://spark.apache.org/downloads.html

  我选择的是 spark-1.6.0-bin-hadoop2.4.tgz

spark安装(windows)

  然后将这个压缩文件解压到你想安装的目录下面

3、使用

  打开cmd,进入spark目录下的bin目录,输入pyspark即可启动spark(因为我是python编程)

  spark安装(windows)

 

相关文章:

  • 2022-12-23
  • 2021-12-22
  • 2021-11-05
  • 2021-08-05
  • 2021-11-07
  • 2022-03-09
  • 2021-05-21
  • 2021-10-20
猜你喜欢
  • 2021-05-27
  • 2021-09-10
  • 2022-01-18
  • 2021-12-25
  • 2021-06-22
相关资源
相似解决方案