利用python开发spark项目需要在本地安装spark

一 本地安装

1.下载http://spark.apache.org/downloads.html

选择适合本机的hadoop版本,点击链接下载

spark开发环境——本地安装spark2.x及启动

2.点击链接完成下载

spark开发环境——本地安装spark2.x及启动

3. 解压文件

spark开发环境——本地安装spark2.x及启动

spark开发环境——本地安装spark2.x及启动

4.配置环境变量

新增SPARK_HOME=D:\spark\spark-2.2.0-bin-hadoop2.6 

spark开发环境——本地安装spark2.x及启动

spark开发环境——本地安装spark2.x及启动

在系统变量Path中追加 %SPARK_HOME%/bin;

spark开发环境——本地安装spark2.x及启动

spark开发环境——本地安装spark2.x及启动

二 在本地启动spark

1.在cmd中输入D:\spark\hadoop-2.6.5\bin\winutils.exe chmod 777 D:\tmp\hive(需要先新建一个文件夹D:\tmp\hive

spark开发环境——本地安装spark2.x及启动

2.运行spark-shell。注意不要在C盘,因为spark-shell运行会产生一些临时文件,在D盘spark中新建一个spark-shell文件,从cmd中进入此文件夹后再运行spark-shell即可。

3.进入spark-shell后输入spark.conf.get("spark.sql.catalogImplementation"),然后即可在交互环境下进行代码测试。

sparkshell文件夹中会出现

spark开发环境——本地安装spark2.x及启动

相关文章:

  • 2021-04-26
  • 2022-01-13
  • 2021-12-03
  • 2022-12-23
  • 2022-02-06
  • 2021-04-19
  • 2022-12-23
  • 2021-12-19
猜你喜欢
  • 2021-10-13
  • 2021-10-17
  • 2021-12-26
  • 2021-07-05
  • 2021-09-12
  • 2022-01-21
相关资源
相似解决方案