【问题标题】:Spark- Saving JavaRDD to CassandraSpark-将 JavaRDD 保存到 Cassandra
【发布时间】:2014-12-05 19:40:10
【问题描述】:

link 显示了一种以这种方式将JavaRDD 保存到Cassandra 的方法:

import static com.datastax.spark.connector.CassandraJavaUtil.*;

JavaRDD<Product> productsRDD = sc.parallelize(products);
javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products");

com.datastax.spark.connector.CassandraJavaUtil.* 似乎已被弃用。更新后的 API 应该是:

import static com.datastax.spark.connector.japi.CassandraJavaUtil.*;

有人可以告诉我一些代码来使用上面更新的 API 将 JavaRDD 存储到 Cassandra 吗?

【问题讨论】:

    标签: java apache-spark cassandra rdd spark-cassandra-connector


    【解决方案1】:

    按照documentation,应该是这样的:

    javaFunctions(rdd).writerBuilder("ks", "people", mapToRow(Person.class)).saveToCassandra();
    

    【讨论】:

      【解决方案2】:

      替换

      JavaRDD<Product> productsRDD = sc.parallelize(products);
      javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products »);
      

      通过

      JavaRDD<Product> productsRDD = javaFunctions(sc).cassandraTable("java_api", "products", mapRowTo(Product.class));
      

      【讨论】:

        猜你喜欢
        • 1970-01-01
        • 2016-01-30
        • 2016-05-02
        • 2015-05-10
        • 2018-03-16
        • 2015-03-06
        • 2016-05-01
        • 2020-08-24
        • 1970-01-01
        相关资源
        最近更新 更多