【问题标题】:Passing jdbc connection to spark read将 jdbc 连接传递给 spark 读取
【发布时间】:2019-02-12 13:01:15
【问题描述】:

我有一个 sql 脚本,它创建仅对该会话有效的临时表。现在运行脚本后,我试图通过 spark 从表中读取数据,然后对其进行处理。下面是我的 spark 读取代码。

sparkSession.read().format("jdbc").option("url", 
jdbcURL).option("dbtable", tableOrQuery).option("user", 
userName).option("password", password)
      .option("driver", driverName).load();

现在我需要传递我创建的 jdbc 连接,以便 spark 可以在同一个会话中读取数据。这可能吗?

【问题讨论】:

  • 顺便说一句,我不久前回答了a similar question - TL;DR;不可能有这样的选择。

标签: java apache-spark jdbc


【解决方案1】:

不,您不能将 jdbc 连接传递给 spark。它将自己管理 JDBC 连接。

JdbcRelationProvider Create Connection

JdbcUtils connect

【讨论】:

猜你喜欢
  • 2022-01-19
  • 1970-01-01
  • 1970-01-01
  • 2016-05-03
  • 1970-01-01
  • 2020-04-21
  • 1970-01-01
  • 1970-01-01
  • 2012-09-26
相关资源
最近更新 更多