【问题标题】:Zeppelin Spark Master Settings on KubernetesKubernetes 上的 Zeppelin Spark Master 设置
【发布时间】:2020-12-29 05:34:53
【问题描述】:

我正在将 Zeppelin 0.8 配置为在 Kubernetes 上与我的 spark 集群在同一命名空间中运行。

问题是,当我在 spark 解释器设置中提到 spark master 时,我的代码停止工作并出现错误,

java.lang.RuntimeException: SPARK_HOME is not specified in interpreter-setting for non-local mode, if you specify it in zeppelin-env.sh, please move that into  interpreter setting

是否有人在 Kubernetes 上积极使用 Zeppelin 来运行 Spark 应用程序?

任何线索将不胜感激!

【问题讨论】:

    标签: apache-spark kubernetes apache-zeppelin


    【解决方案1】:

    这很简单。所需要做的就是在 Zeppelin 的 spark 解释器设置中添加 SPARK_HOME。

    SPARK_HOME 需要定向到下载的 spark 版本。就我而言,我使用的是从这里下载的 spark 2.4:https://archive.apache.org/dist/spark/spark-2.4.0/

    我将该版本与 Hadoop 2.7 一起使用,并将文件安装在我正在运行的容器上。

    要连接到在 Kubernetes 中运行的 spark master,Zeppelin 需要版本中的二进制文件。

    还要在解释器设置中提及主 url 作为 spark://spark-master:7077

    这使设置工作顺利进行,尽管我目前正在解决一些阻碍内部连接的 DNS 问题。

    【讨论】:

      猜你喜欢
      • 2020-09-01
      • 2016-05-08
      • 2018-09-29
      • 2020-11-29
      • 1970-01-01
      • 2020-07-27
      • 1970-01-01
      • 2021-07-08
      • 2019-12-29
      相关资源
      最近更新 更多