【发布时间】:2016-11-17 11:52:54
【问题描述】:
我确定这是一个简单的 SQLContext 问题,但我在 Spark 文档或 Stackoverflow 中找不到任何答案
我想从 MySQL 上的 SQL 查询创建 Spark 数据框
例如,我有一个复杂的 MySQL 查询,例如
SELECT a.X,b.Y,c.Z FROM FOO as a JOIN BAR as b ON ... JOIN ZOT as c ON ... WHERE ...
我想要一个包含 X、Y 和 Z 列的数据框
我想出了如何将整个表加载到 Spark 中,我可以将它们全部加载,然后在那里进行连接和选择。然而,这是非常低效的。我只想加载我的 SQL 查询生成的表。
这是我当前的代码近似值,它不起作用。 Mysql-connector 有一个选项“dbtable”,可用于加载整个表。我希望有一些方法可以指定查询
val df = sqlContext.format("jdbc").
option("url", "jdbc:mysql://localhost:3306/local_content").
option("driver", "com.mysql.jdbc.Driver").
option("useUnicode", "true").
option("continueBatchOnError","true").
option("useSSL", "false").
option("user", "root").
option("password", "").
sql(
"""
select dl.DialogLineID, dlwim.Sequence, wi.WordRootID from Dialog as d
join DialogLine as dl on dl.DialogID=d.DialogID
join DialogLineWordInstanceMatch as dlwim o n dlwim.DialogLineID=dl.DialogLineID
join WordInstance as wi on wi.WordInstanceID=dlwim.WordInstanceID
join WordRoot as wr on wr.WordRootID=wi.WordRootID
where d.InSite=1 and dl.Active=1
limit 100
"""
).load()
【问题讨论】:
-
关于这个(以及更多)的文档可以在这里找到spark.apache.org/docs/2.4.4/sql-data-sources-jdbc.html :)
标签: mysql sql scala apache-spark mysql-connector