【发布时间】:2019-10-18 02:44:54
【问题描述】:
我在我的 Linux 计算机上使用 PySpark。我的 Spark 版本是 2.4.4。
我有一个初始化基本入口点的小脚本,包括 SparkContext、SQLContext 和 SparkSession。这是代码。
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
import pyspark.sql.functions as sqlfunc
我不想每次打开 PySpark 时都输入这个。因此,我想
a) 在我的终端中运行此脚本
b) 继续在我的 PySpark 交互式 shell 中工作
我该怎么做?
我阅读了以下主题以了解如何在我的终端中运行 PySpark 脚本。
https://stackoverflow.com/a/48861241/12170242
它运行脚本,但没有打开 PySpark shell,所以这不是我想要的。
【问题讨论】:
标签: linux shell apache-spark terminal pyspark