【发布时间】:2017-01-24 08:15:03
【问题描述】:
当我尝试使用以下方法将 R 中的本地数据帧转换为 Spark 数据帧时:
raw.data <- as.DataFrame(sc,raw.data)
我收到此错误:
17/01/24 08:02:04 WARN RBackendHandler:找不到匹配的方法类 org.apache.spark.sql.api.r.SQLUtils.getJavaSparkContext。候选人是: 17/01/24 08:02:04 WARN RBackendHandler:getJavaSparkContext(类 org.apache.spark.sql.SQLContext) 24 年 17 月 1 日 08:02:04 错误 RBackendHandler:org.apache.spark.sql.api.r.SQLUtils 上的 getJavaSparkContext 失败 invokeJava(isStatic = TRUE, className, methodName, ...) 中的错误:
问题类似于 sparkR on AWS: Unable to load native-hadoop library and
【问题讨论】:
-
这是您无法强制转换为 Spark 的 DataFrame 的唯一 data.frame 吗?是否存在 Spark 可能无法处理的特殊列?
-
尝试在 SparkR 会话中使用
enableHiveSupport = FALSE作为选项,如答案所示。 -
@RomanLuštrik 不,我也尝试过使用 IRIS 数据集...我无法创建任何 Spark Dataframe。