【发布时间】:2018-02-19 07:51:55
【问题描述】:
我正在使用本教程spark cluster on yarn mode in docker container 以纱线模式在 Spark 集群中启动 zeppelin。但是我被困在第 4 步。我在我的 docker 容器中找不到 conf/zeppelin-env.sh 来进行进一步的配置。我尝试将 zeppelin 的这些 conf 文件夹放入,但现在成功了。除了那个 zeppelin notebook 也没有在 localhost:9001 上运行。
我是分布式系统的新手,如果有人可以帮助我在 yarn 模式下在 spark 集群上启动 zeppelin,那就太好了。
这是我的 docker-compose 文件,用于启用 zeppelin 与 spark 集群的对话。
version: '2'
services:
sparkmaster:
build: .
container_name: sparkmaster
ports:
- "8080:8080"
- "7077:7077"
- "8888:8888"
- "8081:8081"
- "8082:8082"
- "5050:5050"
- "5051:5051"
- "4040:4040"
zeppelin:
image: dylanmei/zeppelin
container_name: zeppelin-notebook
env_file:
- ./hadoop.env
environment:
ZEPPELIN_PORT: 9001
CORE_CONF_fs_defaultFS: "hdfs://namenode:8020"
HADOOP_CONF_DIR_fs_defaultFS: "hdfs://namenode:8020"
SPARK_MASTER: "spark://spark-master:7077"
MASTER: "yarn-client"
SPARK_HOME: spark-master
ZEPPELIN_JAVA_OPTS: >-
-Dspark.driver.memory=1g
-Dspark.executor.memory=2g
ports:
- 9001:9001
volumes:
- ./data:/usr/zeppelin/data
- ./notebooks:/usr/zeppelin/notebook
【问题讨论】:
标签: hadoop apache-spark docker hadoop-yarn apache-zeppelin