【发布时间】:2023-11-14 22:31:01
【问题描述】:
我刚开始学习 spark,一直在公司的 Jupyter notebook 上使用 R&Python。
所有 spark 和 Jupyter 都安装在我的本地计算机上,并且单独运行良好。
不是每次都在 cmd 中为 pyspark 创建 .py 脚本,我可以将它连接到我的 Jupyter notebook 并在那里运行脚本吗?我看过很多关于如何在 Linux 和 Mac 上实现这一点的帖子,但遗憾的是,在这种情况下我将不得不坚持使用 Window 7。
谢谢! 会
【问题讨论】:
标签: python apache-spark pyspark jupyter jupyter-notebook