【发布时间】:2016-01-02 16:23:14
【问题描述】:
我正在尝试通过 JDBC 编写:
df.write.jdbc("jdbc:postgresql://123.123.123.123:5432/myDatabase", "myTable", props)
Spark docs 解释说,如果在客户端模式(Dataproc 运行的模式)下运行,配置选项spark.driver.extraClassPath 不能用于添加 JDBC 驱动程序 JAR,因为 JVM 已经启动。
我尝试在 Dataproc 的提交命令中添加 JAR 路径:
gcloud beta dataproc jobs submit spark ...
--jars file:///home/bryan/org.postgresql.postgresql-9.4-1203-jdbc41.jar
我还添加了加载驱动的命令:
Class.forName("org.postgresql.Driver")
但我仍然收到错误:
java.sql.SQLException: No suitable driver found for jdbc:postgresql://123.123.123.123:5432/myDatabase
【问题讨论】:
标签: apache-spark jdbc google-cloud-platform apache-spark-sql google-cloud-dataproc