【问题标题】:How to connect HBase and Spark using Python?如何使用 Python 连接 HBase 和 Spark?
【发布时间】:2016-11-23 00:46:29
【问题描述】:

我有一个令人尴尬的并行任务,我使用 Spark 来分配计算。这些计算是在 Python 中进行的,我使用 PySpark 来读取和预处理数据。我的任务的输入数据存储在 HBase 中。不幸的是,我还没有找到一种令人满意的(即易于使用和可扩展的)方法来使用 Python 从/向 Spark 读取/写入 HBase 数据。

我之前探索过的:

  • 使用 happybase 从我的 Python 进程中连接。这个包允许使用 HBase 的 Thrift API 从 Python 连接到 HBase。这样,我基本上跳过 Spark 进行数据读取/写入,并且错过了潜在的 HBase-Spark 优化。读取速度似乎相当快,但写入速度很慢。这是我目前最好的解决方案。

  • 使用 SparkContext 的 newAPIHadoopRDDsaveAsNewAPIHadoopDataset,它们利用了 HBase 的 MapReduce 接口。 Spark 代码库 (see here) 曾经包含这方面的示例。但是,现在认为这些已过时,有利于 HBase 的 Spark 绑定 (see here)。我还发现这种方法既慢又麻烦(对于阅读、写作来说效果很好),例如,从newAPIHadoopRDD 返回的字符串必须以各种方式解析和转换才能得到我想要的 Python 对象。它也一次只支持一列。

我知道的替代方案:

  • 我目前正在使用 Cloudera 的 CDH 和 5.7.0 版提供 hbase-sparkCDH release notesa detailed blog post)。这个模块(以前称为SparkOnHBase)将正式成为 HBase 2.0 的一部分。不幸的是,这个奇妙的解决方案似乎只适用于 Scala/Java。

  • 华为的Spark-SQL-on-HBase/Astro(我看不出两者有什么区别……)。它看起来不像我希望的解决方案那样健壮和得到很好的支持。

【问题讨论】:

  • 不确定 CDH 如何分发 hbase-spark 连接器。写入路径跟踪在我看来它使用旧代码库,不支持写入路径。
  • 你找到解决方案了吗?谁合并了从 spark/examples 文件夹中删除所有现有工作示例的 PR,对 pyspark 用户造成了很大的伤害。

标签: python apache-spark hbase pyspark apache-spark-sql


【解决方案1】:

我发现hbase-spark 的制造者之一的this comment,这似乎表明有一种方法可以使用 PySpark 使用 Spark SQL 查询 HBase。

确实,the pattern described here 可以应用于使用 PySpark 使用 Spark SQL 查询 HBase,如以下示例所示:

from pyspark import SparkContext
from pyspark.sql import SQLContext

sc = SparkContext()
sqlc = SQLContext(sc)

data_source_format = 'org.apache.hadoop.hbase.spark'

df = sc.parallelize([('a', '1.0'), ('b', '2.0')]).toDF(schema=['col0', 'col1'])

# ''.join(string.split()) in order to write a multi-line JSON string here.
catalog = ''.join("""{
    "table":{"namespace":"default", "name":"testtable"},
    "rowkey":"key",
    "columns":{
        "col0":{"cf":"rowkey", "col":"key", "type":"string"},
        "col1":{"cf":"cf", "col":"col1", "type":"string"}
    }
}""".split())


# Writing
df.write\
.options(catalog=catalog)\  # alternatively: .option('catalog', catalog)
.format(data_source_format)\
.save()

# Reading
df = sqlc.read\
.options(catalog=catalog)\
.format(data_source_format)\
.load()

我已经为此尝试过hbase-spark-1.2.0-cdh5.7.0.jar(由 Cloudera 分发),但遇到了麻烦(写作时org.apache.hadoop.hbase.spark.DefaultSource does not allow create table as select,阅读时java.util.NoSuchElementException: None.get)。事实证明,当前版本的 CDH 不包括对允许 Spark SQL-HBase 集成的hbase-spark 的更改。

对我有用的是 shc Spark 包,发现 here。我必须对上述脚本进行的唯一更改是更改:

data_source_format = 'org.apache.spark.sql.execution.datasources.hbase'

按照shc README 中的示例,以下是我在我的 CDH 集群上提交上述脚本的方法:

spark-submit --packages com.hortonworks:shc:1.0.0-1.6-s_2.10 --repositories http://repo.hortonworks.com/content/groups/public/ --files /opt/cloudera/parcels/CDH/lib/hbase/conf/hbase-site.xml example.py

shc 上的大部分工作似乎已经合并到 HBase 的 hbase-spark 模块中,以便在 2.0 版中发布。这样,就可以使用上述模式对 HBase 进行 Spark SQL 查询(详情请参阅:https://hbase.apache.org/book.html#_sparksql_dataframes)。我上面的例子展示了 PySpark 用户的样子。

最后,请注意:我上面的示例数据只有字符串。 shc 不支持 Python 数据转换,所以我遇到了整数和浮点数未显示在 HBase 中或奇怪值的问题。

【讨论】:

  • 我可以用它来管理超过 100 万行的大数据吗?
  • 另外,参数 --files 是干什么用的?指定给它的值是什么意思?有这个参数/值对是可选的吗?
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2017-02-15
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2022-01-13
  • 1970-01-01
相关资源
最近更新 更多