【发布时间】:2016-08-05 22:58:37
【问题描述】:
我安装了 anaconda,还下载了 Spark 1.6.2。我正在使用此答案中的以下说明为 Jupyter enter link description here 配置 spark
我已将 spark 目录下载并解压为
~/spark
现在当我 cd 进入此目录并进入 bin 时,我看到以下内容
SFOM00618927A:spark $ cd bin
SFOM00618927A:bin $ ls
beeline pyspark run-example.cmd spark-class2.cmd spark-sql sparkR
beeline.cmd pyspark.cmd run-example2.cmd spark-shell spark-submit sparkR.cmd
load-spark-env.cmd pyspark2.cmd spark-class spark-shell.cmd spark-submit.cmd sparkR2.cmd
load-spark-env.sh run-example spark-class.cmd spark-shell2.cmd spark-submit2.cmd
我还在我的 .bash_profile 和 .profile 中添加了上述答案中提到的环境变量
现在在 spark/bin 目录中,我首先要检查的是 pyspark 命令是否首先在 shell 上工作。
所以我在执行完 cd spark/bin 后执行此操作
SFOM00618927A:bin $ pyspark
-bash: pyspark: command not found
按照我可以做的所有步骤后的答案
pyspark
在任何目录的终端中,它应该启动一个带有火花引擎的 jupyter 笔记本。但是即使外壳中的 pyspark 也无法正常工作,忘记让它在 juypter notebook 上运行
请告知这里出了什么问题。
编辑:
我做到了
open .profile
在主目录中,这是存储在路径中的内容。
export PATH=/Users/854319/anaconda/bin:/usr/local/bin:/usr/bin:/bin:/usr/sbin:/sbin:/Library/TeX/texbin:/Users/854319/spark/bin
export PYSPARK_DRIVER_PYTHON=ipython
export PYSPARK_DRIVER_PYTHON_OPTS='notebook' pyspark
【问题讨论】:
-
您是否按照答案的第 8 步进行操作?将 bin 文件夹添加到 PATH 环境变量中?
-
cd spark/bin 之后,$ ./pyspark 就可以了,你试过了吗
-
@rfkortekaas 是的,我遵循了答案的第 8 步。我的路径中的所有这些仍然无法正常工作
-
能否添加PATH的内容:'echo $PATH'
-
@rfkortekaas 您好,请查看以下/Users/i854319/anaconda/bin:/usr/local/bin:/usr/bin:/bin:/usr/sbin:/sbin:/Library/TeX/ texbin 我也尝试了 SANDHYALALKUMAR 的答案。它给出了一个错误:即使我已经安装了它,也没有安装 Java 运行时。是否需要重启电脑才能生效?
标签: python apache-spark pyspark