【发布时间】:2020-02-21 07:57:51
【问题描述】:
遵循“使用 R 掌握 Apache Spark”一书的第一条说明 关于 spark_apply,在 windows 下的本地集群上并使用 RGui, 启动:
install.packages("sparklyr")
install.packages("pkgconfig")
spark_install("2.3")
Installing Spark 2.3.3 for Hadoop 2.7 or later.
spark_installed_versions()
library(dplyr,sparklyr)
sc <- spark_connect(master = "local", version = "2.3.3")
cars <- copy_to(sc, mtcars)
cars %>% spark_apply(~round(.x))
返回以下错误:
spark_apply Cannot run program “Rscript”: in directory "C:\Users\username\AppData\Local\spark\spark-2.3.3-bin-hadoop2.7\tmp\local\spark-..\userFiles-..
CreateProcess error=2, The file specified can't be found
如何正确安装 sparklyr 和 如何解决这个错误?
【问题讨论】:
标签: r apache-spark sparklyr