【发布时间】:2015-02-11 09:25:57
【问题描述】:
我正在使用带有 Scala 的 Spark,并尝试使用 JdbcRDD 从数据库中获取数据。
val rdd = new JdbcRDD(sparkContext,
driverFactory,
testQuery,
rangeMinValue.get,
rangeMaxValue.get,
partitionCount,
rowMapper)
.persist(StorageLevel.MEMORY_AND_DISK)
在查询中没有 ?要设置的值(因为查询很长,所以我没有把它放在这里。)所以我收到一条错误消息,
java.sql.SQLException:参数索引超出范围(1>参数个数,即0)。
我不知道问题是什么。有人可以提出任何解决方案吗?
【问题讨论】:
标签: sql scala jdbc apache-spark rdd