1 建立PyCharm与Spark的连接

在Run->Edit Configuration中添加环境变量
在CentOS环境下,使用PyCharm进行Spark开发
在CentOS环境下,使用PyCharm进行Spark开发
其中PYTHONPATH和SPARK_HOME的值请前往/etc/profile文件中查看,这两个值是在配置Spark的环境时写入的。

2 实现代码自动补全

将 Spark中的spark-2.4.0-bin-hadoop2.7/python/pyspark文件夹(注意,不是 bin/pyspark可执行文件),复制到Python安装目录下的python/lib/python3.7/site-packages中。

参考网址

[1] PyCharm搭建Spark开发环境 + 第一个pyspark程序
[2] 使用PyCharm配置Spark的Python开发环境

相关文章:

  • 2022-12-23
  • 2022-01-06
  • 2021-08-10
  • 2021-05-31
  • 2022-12-23
  • 2021-09-03
  • 2021-07-16
  • 2021-07-27
猜你喜欢
  • 2021-09-14
  • 2021-11-24
  • 2021-11-30
  • 2021-10-15
  • 2021-09-19
  • 2021-07-14
  • 2021-11-07
相关资源
相似解决方案