【问题标题】:how can I write spark Dataframe to clickhouse如何将 spark Dataframe 写入 clickhouse
【发布时间】:2020-06-12 09:21:21
【问题描述】:
val df = spark.read.parquet(path)
val IP ="190.176.35.145"
val port = "9000" 
val table = "table1"
val user = "defalut"
val password = "default"

我不知道怎么把df直接写进clickhouse, 我没有找到任何类似的答案。 有人帮帮我~

【问题讨论】:

标签: dataframe apache-spark clickhouse


【解决方案1】:

写入 clickhouse 数据库类似于通过 JDBC 写入任何其他数据库。只需确保将 ClickHouseDriver 类导入您的代码即可。 用户名和密码被传递到 ckProperties 对象。 写入命令如下,可以替换字符串中的数据库名:

import ru.yandex.clickhouse._

val jdbcUrl = "jdbc:clickhouse://190.176.35.145:9000/your_database_name"

val ckProperties = new Properties()

df.write.mode("append").option("driver", "ru.yandex.clickhouse.ClickHouseDriver").jdbc(jdbcUrl, table = "table1", ckProperties)

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2018-05-23
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2018-11-30
    • 2017-01-09
    相关资源
    最近更新 更多