【发布时间】:2016-10-12 10:12:38
【问题描述】:
在我的 spark 应用程序中,我使用以下代码通过 JDBC 驱动程序从 sql server 数据库中检索数据。
Dataset<Row> dfResult= sparksession.read().jdbc("jdbc:sqlserver://server\dbname", tableName,partitionColumn, lowerBound, upperBound, numberOfPartitions, properties);
并在 dfResult 数据集上使用 map 操作。
在独立模式下运行应用程序时,我看到 spark 为每个 rdd 创建唯一的连接。从 Api 描述中,我了解 spark 负责关闭连接。
请问是否有办法重用连接,而不是为每个 rdd 分区打开和关闭 jdbc 连接?
谢谢
【问题讨论】:
-
我不知道 spark,但您可能想检查是否可以改用
javax.sql.DataSource并提供一个连接池。
标签: java jdbc apache-spark