【问题标题】:Unable to run SparkR in Rstudio无法在 Rstudio 中运行 SparkR
【发布时间】:2016-09-02 10:03:45
【问题描述】:

我无法在 Rstudio 中使用 sparkR,因为我遇到了一些错误: sparkR.sparkContext 中的错误(master,appName,sparkHome,sparkConfigMap,:

JVM 在 10 秒后还没有准备好

我已尝试搜索解决方案,但找不到。以下是我尝试设置 sparkR 的方法:

Sys.setenv(SPARK_HOME="C/Users/alibaba555/Downloads/spark")  # The path to your spark installation 

.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths())) 

library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R") # The path to the lib folder in the spark location 

library(SparkR) 

sparkR.session(master="local[*]",sparkConfig=list(spark.driver.memory="2g")*

现在执行以一条消息开始:

使用 spark-submit 命令启动 java C/Users/alibaba555/Downloads/spark/bin/spark-submit2.cmd
火花壳 C:\Users\ALIBAB~1\AppData\Local\Temp\Rtmp00FFkx\backend_port1b90491e4622

最后几分钟后它返回一条错误消息:

sparkR.sparkContext 中的错误(master、appName、sparkHome、 sparkConfigMap, : 10 秒后 JVM 还没有准备好

谢谢!

【问题讨论】:

  • 您最终找到解决方案了吗?我可以使用域管理员帐户运行一台 Windows 服务器而不会出错,但作为普通用户,即使该用户也是该框的管理员并且 R-Studio 以管理员身份运行,也会发生错误

标签: sparkr


【解决方案1】:

看来您的 spark 库的路径有误。应该是这样的:library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R/lib")

我不确定这是否能解决您的问题,但它可能会有所帮助。另外,您使用的是什么版本的 Spark/SparkR 和 Scala?您是从源代码构建的吗?

【讨论】:

    【解决方案2】:

    似乎导致我的问题归结为我们用户的工作目录是网络映射驱动器。

    更改工作目录解决了这个问题。

    如果您偶然也在使用 databricks-connect,请确保将 .databricks-connect 文件复制到将运行 Rstudio 或为每个用户设置 databricks-connect 的每个用户的 %HOME% 中。

    【讨论】:

      猜你喜欢
      • 2015-09-16
      • 1970-01-01
      • 2017-06-12
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2015-09-28
      • 1970-01-01
      • 2018-02-24
      相关资源
      最近更新 更多