【发布时间】:2024-01-21 16:00:01
【问题描述】:
我有一个由 hadoop 集群组成的头节点。我看到 pyspark 安装在 hdfs 集群中,即我能够在 hdfs 用户中使用 pyspark shell。但是在用户头节点中没有安装 pyspark。因此,我无法从 hdfs 访问文件并将其带到 pyspark。如何在 jupyter notebook 中使用 hdfs 内的 pyspark。我在用户头节点中安装了 pyspark,但我无法访问 hdfs 文件。我假设jupyter 无法使用安装在 hdfs 中的 spark。我如何启用它以便我可以访问 jupyter 中的 hdfs 文件。
现在当我在 jupyter 中访问 hdfs 文件时,
It says 'Spark is not installed'
我知道它的广泛性,如果我强调或过分强调任何一点,请在 cmets 中告诉我
【问题讨论】:
标签: hadoop pyspark jupyter-notebook hdfs cluster-computing