【发布时间】:2019-12-06 16:08:47
【问题描述】:
我正在尝试将我在 PostgreSQL 上的表加载到 Spark。 我已经使用 jdbc 成功地将表从 PostgreSQL 读取到 Spark。 我有一个用 R 编写的代码,我想在表格上使用它,但我无法访问 R 中的数据。
使用以下代码连接
val pgDF_table = spark.read
.format("jdbc")
.option("driver", "org.postgresql.Driver")
.option("url", "jdbc:postgresql://10.128.0.4:5432/sparkDB")
.option("dbtable", "survey_results")
.option("user", "prashant")
.option("password","pandey")
.load()
pgDF_table.show
spark.write 有什么选择吗?
【问题讨论】:
-
您可能会发现spark.rstudio.com 很有帮助。它允许您直接从 R 而非 Scala 定义 Spark 作业,并将 Spark 中的数据导入 R 进行进一步处理。
-
但我的数据在 postgresql 中,没有任何关系。
标签: r postgresql apache-spark jdbc apache-spark-sql