【发布时间】:2016-02-17 01:44:35
【问题描述】:
我正在尝试在我的机器上使用本地 Spark,并且能够在以下位置重现该教程:
但是,当我尝试使用 Hive 时,出现以下错误:
值错误[3L]:Spark SQL 未在 Hive 支持下构建
代码:
## Set Environment variables
Sys.setenv(SPARK_HOME = 'F:/Spark_build')
# Set the library Path
.libPaths(c(file.path(Sys.getenv('SPARK_HOME'), 'R','lib'),.libPaths()))
# load SparkR
library(SparkR)
sc <- sparkR.init()
sqlContext <- sparkRHive.init(sc)
sparkR.stop()
首先我怀疑是Spark的预编译版本,然后我尝试使用Maven构建自己的,花了将近一个小时:
mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.6.0 -Phive -Phive-thriftserver -DskipTests clean package.
但是,错误仍然存在。
【问题讨论】:
标签: r apache-spark hive sparkr