【问题标题】:How to run script in Pyspark and drop into IPython shell when done?如何在 Pyspark 中运行脚本并在完成后放入 IPython shell?
【发布时间】:2014-09-19 13:12:29
【问题描述】:

我想运行一个 spark 脚本并放入 IPython shell 以交互方式检查数据。

同时运行:

$ IPYTHON=1 pyspark --master local[2] myscript.py

$ IPYTHON=1 spark-submit --master local[2] myscript.py

一旦完成,两者都会退出 IPython。

这看起来很简单,但在任何地方都找不到方法。

【问题讨论】:

    标签: python ipython apache-spark


    【解决方案1】:

    如果您使用以下命令启动 iPython shell:

    $ IPYTHON=1 pyspark --master local[2]
    

    你可以这样做:

     >>> %run myscript.py
    

    所有变量都将保留在工作区中。您也可以通过以下方式逐步调试:

    >>> %run -d myscript.py
    

    【讨论】:

    • 这似乎并没有传递上下文变量。 sc(默认)。想法?
    【解决方案2】:

    使用IPYTHON=1 pyspark 启动IPython shell,然后运行execfile('/path/to/myscript.py'),它应该在shell 中运行您的脚本并返回到它。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2017-09-15
      • 2020-05-11
      • 2019-02-19
      • 2017-02-23
      相关资源
      最近更新 更多