【发布时间】:2016-01-16 05:21:38
【问题描述】:
在 Spark Streaming 运行时不会执行 HBase puts,只有在我关闭 Spark 时才会执行 - 它会尝试完全执行所有 puts
val inputRdd = FlumeUtils.createStream(ssc, "server", 44444)
inputRdd.foreachRDD({ rdd =>
rdd.foreachPartition(partitionOfRecords => {
val hbaseClient = new HBaseClient(zookeeper)
partitionOfRecords.foreach({ event =>
hbaseClient.put(parse(event))
hbaseClient.flush()
【问题讨论】:
-
您是否尝试在 forechPartition 中创建 HBaseClient ?
-
这就是@axlpado-AgileLab 的样子
-
@axlpado-AgileLab 我已经更新了代码——它已经在里面了
-
partitionOfRecords.foreach( event => { hbaseClient.put(parse(event)) hbaseClient.flush()})
标签: apache-spark hbase spark-streaming