参考https://www.zhihu.com/question/35973656


所需安装包如下:

jdk:jdk-7u51-windows-x64

scala(可安装的独立程序):scala-2.11.8
spark:spark-2.1.0-bin-hadoop2.7


intellij:ideaIC-2016.3.7

scala(插件,压缩包)scala-intellij-bin-2016.3.8

hadood:spark-2.1.0-bin-hadoop2.7


打开intellij IDE后,需设置对应的SDK依赖(java、scala、spark)

选择“file”——> "Project structure"

设置依赖的JAVA SDK

windows安装sparkwindows安装spark


设置java和scala SDK

windows安装sparkwindows安装spark


如果需要设置spark的SDK,点击“+”,选择对应的jar包

windows安装sparkwindows安装spark

相关文章:

  • 2022-12-23
  • 2021-12-22
  • 2021-11-05
  • 2021-08-05
  • 2021-11-07
  • 2022-03-09
  • 2021-05-21
  • 2021-10-20
猜你喜欢
  • 2021-06-25
  • 2021-09-10
  • 2022-01-18
  • 2021-12-25
  • 2021-06-22
相关资源
相似解决方案