【发布时间】:2014-09-14 14:33:14
【问题描述】:
我正在尝试了解 spark 如何在 YARN 集群/客户端上运行。我有以下问题。
是否需要在yarn cluster的所有节点上安装spark?我认为应该是因为集群中的工作节点执行任务并且应该能够解码驱动程序发送到集群的spark应用程序中的代码(spark API)?
它在文档中说“确保
HADOOP_CONF_DIR或YARN_CONF_DIR指向包含Hadoop 集群(客户端)配置文件的目录”。为什么客户端节点在将作业发送到集群时必须安装 Hadoop?
【问题讨论】:
标签: hadoop apache-spark hdfs hadoop-yarn