【发布时间】:2015-03-24 13:59:24
【问题描述】:
随着新 spark 1.3 的发布,我很高兴尝试 JDBC 函数(在 Python 中)。但是,由于遇到的错误,我认为此时帮助不是可选的:
这是我所做的:
-
我从 scala 下的典型 spark shell 开始
SPARK_CLASSPATH=/jdbc_path/some-jdbc-driver.jar bin/spark-shell结果在 INFO 中:使用
--driver-class-path(我也跟着) -
在PySpark REPEL中,导入了相关包,我使用了
df2 = sqlCtx.load("jdbc", url="jdbc:ncluster://serveraddress:2406/database?user=myid&password=mypass", driver="com.asterdata.ncluster.Driver", dbtable="mytable")
但错误消息一直显示 spark_home/jdbc 没有此类文件。
请问:
- 在设置额外的外部类时,我如何知道它是否被很好地包含在内?
- 只是一个简单的 JDBC 链接到其他数据库,有没有 JDBC 的完整示例?
【问题讨论】:
标签: python jdbc apache-spark