【发布时间】:2014-12-22 21:02:10
【问题描述】:
目标:我试图让 apache-spark pyspark 在我的 pycharm IDE 中得到适当的解释。
问题:我目前收到以下错误:
ImportError: cannot import name accumulators
我正在关注以下博客以帮助我完成整个过程。 http://renien.github.io/blog/accessing-pyspark-pycharm/
由于我的代码采用了 except 路径,我个人摆脱了 try: except: 只是为了看看确切的错误是什么。
在此之前我收到以下错误:
ImportError: No module named py4j.java_gateway
只需在 bash 中键入“$sudo pip install py4j”即可解决此问题。
我的代码目前看起来如下块:
import os
import sys
# Path for spark source folder
os.environ['SPARK_HOME']="[MY_HOME_DIR]/spark-1.2.0"
# Append pyspark to Python Path
sys.path.append("[MY_HOME_DIR]/spark-1.2.0/python/")
try:
from pyspark import SparkContext
print ("Successfully imported Spark Modules")
except ImportError as e:
print ("Can not import Spark Modules", e)
sys.exit(1)
我的问题:
1.这个错误的根源是什么?原因是什么?
2. 我该如何解决这个问题,以便我可以在我的 pycharm 编辑器中运行 pyspark。
注意:我在 pycharm 中使用的当前解释器是 Python 2.7.8 (~/anaconda/bin/python)
提前谢谢!
不要
【问题讨论】:
标签: python pycharm apache-spark