【发布时间】:2017-09-23 14:41:21
【问题描述】:
我在 ubuntu 上的这个路径 /home/mymachine/spark-2.1.0-bin-hadoop2.7 上安装了 Apache Spark,所以我必须转到位于该目录下的 python 目录才能使用 spark 或者我可以在名为 findspark 的库的帮助下在 python 目录之外使用它,但似乎我必须总是像这样初始化这个库:
import findspark
findspark.init("/home/mymachine/spark-2.1.0-bin-hadoop2.7")
每次想用findspark,效果不是很好。有没有办法永久初始化这个库?
here 提到需要在 .bash_profile 上设置变量 SPARK_HOME,我做到了,但没有运气。
【问题讨论】:
-
嗨,我在 OSX 上遇到了类似的问题。意思是,我将 SPARK_HOME 添加到我的 .bash_profile 中,但没有运气。我不得不
source .bash_profile解决。 -
嗨@bob-haffner 解决
source .bash_profile是什么意思? -
您好硬件,当您将环境变量(例如 SPARK_HOME)添加到 .bash_profile 时,您需要关闭并重新打开您的 shell 或执行
source .bash_profile以便您可以使用它。这有意义吗? -
我应该注意这就是我在 OSX 上所做的。我对ubuntu不太熟悉
-
嗨@bob-haffner,是的,当然。在 Ubuntu 中应该可以正常工作,但这次仍然无法正常工作。