【问题标题】:Is there any way to Load Spark SQL resultset (data frames ) back to cassandra?有没有办法将 Spark SQL 结果集(数据帧)加载回 cassandra?
【发布时间】:2017-08-17 01:41:18
【问题描述】:

我在 Scala 中使用 spark 查询了 Cassandra。结果如下:

有没有办法将此结果写回 Cassandra 表?

【问题讨论】:

    标签: scala apache-spark cassandra apache-spark-sql


    【解决方案1】:
    df.write
      .format("org.apache.spark.sql.cassandra")
      .options(Map( "table" -> "t_payu_df", "keyspace" -> "ks_payu"))
      .save()
    

    这会起作用。

    您还可以指定 SaveMode (overwrite,append,ErrorIfExists)。

    SaveMode 示例:

    df.write
      .format("org.apache.spark.sql.cassandra")
      .mode(SaveMode.Overwrite)
      .options(Map( "table" -> "t_payu_df", "keyspace" -> "ks_payu"))
      .save()
    

    更多详情请访问Dataframe

    【讨论】:

    • 感谢@undefined_variable,是否有机会在旅途中创建 cassandra 表? ,基于数据框。在上面,我们首先创建表,然后将数据从数据框移动到 cassandra 表。
    • @Goutham 在链接中也有在旅途中创建表格的步骤
    • 是的@undefined_variable,在createCassandraTable方法中,我们必须提供partitionKeyColumns和clusteringKeyColumns。好的,现在我明白了,必须以这种方式将这些定义为 cassandra 工作.. 谢谢..
    猜你喜欢
    • 1970-01-01
    • 2023-03-23
    • 2020-09-19
    • 2019-04-14
    • 2020-10-30
    • 2013-07-22
    • 2016-12-26
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多