【发布时间】:2014-06-30 10:47:40
【问题描述】:
我正在尝试学习 spark + scala。我想从 HBase 读取,但没有 mapreduce。 我创建了一个简单的 HBase 表 - “测试”并在其中做了 3 次放置。我想通过 spark 阅读它(没有使用 mapreduce 的 HBaseTest)。我尝试在 shell 上运行以下命令
val numbers = Array(
new Get(Bytes.toBytes("row1")),
new Get(Bytes.toBytes("row2")),
new Get(Bytes.toBytes("row3")))
val conf = new HBaseConfiguration()
val table = new HTable(conf, "test")
sc.parallelize(numbers, numbers.length).map(table.get).count()
我不断收到错误 - org.apache.spark.SparkException:作业中止:任务不可序列化:java.io.NotSerializableException:org.apache.hadoop.hbase.HBaseConfiguration
谁能帮帮我,我怎样才能创建一个使用可序列化配置的 Htable
谢谢
【问题讨论】:
标签: hbase apache-spark