【发布时间】:2017-11-25 12:18:55
【问题描述】:
我几乎是 spark 新手。我想将 pyspark 连接到 oracle sql,我正在使用以下 pyspark 代码:
from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext, Row
import os
spark_config = SparkConf().setMaster("local").setAppName("Project_SQL")
sc = SparkContext(conf = spark_config)
sqlctx = SQLContext(sc)
os.environ['SPARK_CLASSPATH'] = "C:\Program Files (x86)\Oracle\SQL Developer 4.0.1\jdbc\lib.jdbc6.jar"
df = sqlctx.read.format("jdbc").options(url="jdbc:oracle:thin:@<>:<>:<>"
, driver = "oracle.ojdbc6.jar.OracleDriver"
, dbtable = "account"
, user="...."
, password="...").load()
但我收到以下错误:
An error occurred while calling o29.load.:
java.lang.ClassNotFoundExceotion : oracle.ojdbc6.jar.OracleDriver
我进行了很多搜索并尝试了几种方法来更改/更正驱动程序的路径,但仍然遇到相同的错误。
有人可以帮我解决这个问题吗?
【问题讨论】:
标签: apache-spark jdbc apache-spark-sql oracle-sqldeveloper ojdbc