【发布时间】:2017-01-31 10:22:36
【问题描述】:
我有一个 HBase 表(通过 Apache Phoenix 编写),需要读取和写入平面文本文件。当前的瓶颈是因为我们有 32 个用于 HBase(Phoenix)表的盐桶,它只打开 32 个映射器来读取。当数据增长超过 1000 亿时,它变得非常耗时。有人可以指出我如何控制每个区域服务器的映射器数量以读取 HBase 表吗?我还看到了在下面的 URL 中解释的程序,“https://gist.github.com/bbeaudreault/9788499”,但我没有完全解释的驱动程序。有人可以帮忙吗?
【问题讨论】:
-
Vijay :要减少映射器的数量,您可以通过以下方式减少区域数量.. 是否有帮助?
-
根据我的经验,它应该可以工作,请让我知道解决方案是否有效。
标签: java hadoop apache-spark mapreduce hbase