【问题标题】:How to link local [py]spark to local jupyter notebook on window如何将本地 [py]spark 链接到窗口上的本地 jupyter 笔记本
【发布时间】:2023-11-14 22:31:01
【问题描述】:

我刚开始学习 spark,一直在公司的 Jupyter notebook 上使用 R&Python。

所有 spark 和 Jupyter 都安装在我的本地计算机上,并且单独运行良好。

不是每次都在 cmd 中为 pyspark 创建 .py 脚本,我可以将它连接到我的 Jupyter notebook 并在那里运行脚本吗?我看过很多关于如何在 Linux 和 Mac 上实现这一点的帖子,但遗憾的是,在这种情况下我将不得不坚持使用 Window 7。

谢谢! 会

【问题讨论】:

    标签: python apache-spark pyspark jupyter jupyter-notebook


    【解决方案1】:

    您可以使用 Hortonworks (http://hortonworks.com/downloads/#sandbox) 的沙盒并在 Apache Zeppelin 中运行您的代码。 无需设置。安装虚拟盒并运行沙盒。然后通过您的主机(Windows)浏览器访问 zeppelin 和 ambari,您就可以运行您的 %pyspark 代码了。 Zeppelin 的外观有点像 Jupyter。

    【讨论】: