【发布时间】:2016-09-02 10:03:45
【问题描述】:
我无法在 Rstudio 中使用 sparkR,因为我遇到了一些错误: sparkR.sparkContext 中的错误(master,appName,sparkHome,sparkConfigMap,:
JVM 在 10 秒后还没有准备好
我已尝试搜索解决方案,但找不到。以下是我尝试设置 sparkR 的方法:
Sys.setenv(SPARK_HOME="C/Users/alibaba555/Downloads/spark") # The path to your spark installation
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R") # The path to the lib folder in the spark location
library(SparkR)
sparkR.session(master="local[*]",sparkConfig=list(spark.driver.memory="2g")*
现在执行以一条消息开始:
使用 spark-submit 命令启动 java C/Users/alibaba555/Downloads/spark/bin/spark-submit2.cmd
火花壳 C:\Users\ALIBAB~1\AppData\Local\Temp\Rtmp00FFkx\backend_port1b90491e4622
最后几分钟后它返回一条错误消息:
sparkR.sparkContext 中的错误(master、appName、sparkHome、 sparkConfigMap, : 10 秒后 JVM 还没有准备好
谢谢!
【问题讨论】:
-
您最终找到解决方案了吗?我可以使用域管理员帐户运行一台 Windows 服务器而不会出错,但作为普通用户,即使该用户也是该框的管理员并且 R-Studio 以管理员身份运行,也会发生错误
标签: sparkr