【发布时间】:2017-03-17 16:24:59
【问题描述】:
我对 Spark 和 Ambari 的集群安装比较陌生。最近,我有一个任务是在一个集群上安装 Spark 2.1.0,该集群预安装了 Ambari 和 Spark 1.6.2 以及 HDFS 和 YARN 2.7.3。
我的任务是安装 Spark 2.1.0,因为它是最新版本,与 RSpark 等具有更好的兼容性。我在互联网上搜索了几天,只在 AWS 或 Spark 2.1.0 上找到了一些安装指南。
例如: http://data-flair.training/blogs/install-deploy-run-spark-2-x-multi-node-cluster-step-by-step-guide/ 和http://spark.apache.org/docs/latest/building-spark.html。
但他们都没有提到不同版本的 Spark 的干扰。由于我需要保持此集群运行,因此我想了解集群的一些潜在威胁。
有没有一些合适的方法来做这个安装?非常感谢!
【问题讨论】:
-
您使用的是什么 ambari 堆栈以及哪个版本? HDP、IOP、PHD 等?您希望 Spark2 由 Ambari 管理吗?
-
是的,我希望 Spark2 由 Ambari 管理。实际上我是 Ambari 的新手,不知道在哪里可以找到所有这些版本的 HDP、IOP、PHD,你能告诉我一个方法吗?非常感谢!
-
登录 ambari,在右上角单击 Admin 按钮,选择 Stacks and Version,单击 Versions 选项卡。它会告诉您当前使用的堆栈和版本。
-
它使用以下内容:HDP - 2.5.3.0,HDFS - 2.7.3 YARN - 2.7.3 MapReduce2 - 2.7.3 Tez - 0.7.0 Hive - 1.2.1000 Pig - 0.16.0 ZooKeeper - 3.4.6 Ambari Infra - 0.1.0 Ambari Metrics - 0.1.0 SmartSense - 1.3.1.0-136 Spark - 1.6.2 Slider - 0.91.0
标签: hadoop apache-spark cluster-computing hortonworks-data-platform ambari