【问题标题】:Update\Insert Cassandra Counter Value in Spark SQL在 Spark SQL 中更新\插入 Cassandra 计数器值
【发布时间】:2017-10-12 12:11:51
【问题描述】:

我们如何使用 Spark SQL 更新 Cassandra 计数器值?
我尝试了一个 Cassandra CQL 查询,该查询使用 DBeaver 更新计数器值并且它有效。但是,当我使用 SQL 进行尝试时,不会出现错误 Update 语句。
另一件事,INSERT OVERWRITE 在这里不起作用(我认为),因为我需要增加计数器值:counter_column=counter_column+1

【问题讨论】:

    标签: sql apache-spark cassandra apache-spark-sql


    【解决方案1】:

    我刚刚找到了一种方法:
    当在 Spark 中向具有 Counter 值的表中插入值时,Cassandra 会将该值添加到当前值中。因此执行以下 SQL:

    INSERT INTO some_table VALUES ('key0', 1)
    INSERT INTO some_table VALUES ('key0', 2)
    

    将产生以下表格状态:

    key0, 3
    

    【讨论】:

      猜你喜欢
      • 2017-01-07
      • 2021-03-16
      • 1970-01-01
      • 2018-03-11
      • 2015-10-28
      • 1970-01-01
      • 2015-06-17
      • 2019-01-20
      • 2016-07-29
      相关资源
      最近更新 更多