【发布时间】:2020-10-26 14:31:56
【问题描述】:
代码如下
import findspark
findspark.init(r'C:\Users\user\Documents\spark-3.0.0-bin-hadoop2.7')
import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('Basics').getOrCreate()
出现错误 例外:Java 网关进程在发送其端口号之前退出
免责声明:已经将 JAVA_HOME 添加到 env 变量中,我不需要在调用 init 时添加 spark
已经通过了很多链接来检查错误无法解决
【问题讨论】:
标签: python apache-spark pyspark