【发布时间】:2017-12-21 07:31:57
【问题描述】:
我们目前在 10 节点集群上使用 hadoop-2.8.0,并计划升级到最新的 hadoop-3.0.0。
我想知道如果我们将hadoop-3.0.0 与旧版本的 Spark 和其他组件(例如 Hive、Pig 和 Sqoop)一起使用会不会有任何问题。
【问题讨论】:
-
最新的 Spark 2.2.1 不支持 Hadoop 3.0.0。
-
@JacekLaskowski ,它抛出什么类型的异常? .我在
spark的下载页面上读到它适用于hadoop2.7 版及更高版本。spark和hadoop的最新版本不兼容,这不难理解! -
不幸的是我不知道具体情况。
标签: hadoop apache-spark hive apache-pig sqoop