【发布时间】:2016-11-23 00:46:29
【问题描述】:
我有一个令人尴尬的并行任务,我使用 Spark 来分配计算。这些计算是在 Python 中进行的,我使用 PySpark 来读取和预处理数据。我的任务的输入数据存储在 HBase 中。不幸的是,我还没有找到一种令人满意的(即易于使用和可扩展的)方法来使用 Python 从/向 Spark 读取/写入 HBase 数据。
我之前探索过的:
使用
happybase从我的 Python 进程中连接。这个包允许使用 HBase 的 Thrift API 从 Python 连接到 HBase。这样,我基本上跳过 Spark 进行数据读取/写入,并且错过了潜在的 HBase-Spark 优化。读取速度似乎相当快,但写入速度很慢。这是我目前最好的解决方案。使用 SparkContext 的
newAPIHadoopRDD和saveAsNewAPIHadoopDataset,它们利用了 HBase 的 MapReduce 接口。 Spark 代码库 (see here) 曾经包含这方面的示例。但是,现在认为这些已过时,有利于 HBase 的 Spark 绑定 (see here)。我还发现这种方法既慢又麻烦(对于阅读、写作来说效果很好),例如,从newAPIHadoopRDD返回的字符串必须以各种方式解析和转换才能得到我想要的 Python 对象。它也一次只支持一列。
我知道的替代方案:
我目前正在使用 Cloudera 的 CDH 和 5.7.0 版提供
hbase-spark(CDH release notes 和 a detailed blog post)。这个模块(以前称为SparkOnHBase)将正式成为 HBase 2.0 的一部分。不幸的是,这个奇妙的解决方案似乎只适用于 Scala/Java。华为的Spark-SQL-on-HBase/Astro(我看不出两者有什么区别……)。它看起来不像我希望的解决方案那样健壮和得到很好的支持。
【问题讨论】:
-
不确定 CDH 如何分发 hbase-spark 连接器。写入路径跟踪在我看来它使用旧代码库,不支持写入路径。
-
你找到解决方案了吗?谁合并了从 spark/examples 文件夹中删除所有现有工作示例的 PR,对 pyspark 用户造成了很大的伤害。
标签: python apache-spark hbase pyspark apache-spark-sql