【发布时间】:2015-09-11 11:47:25
【问题描述】:
我想在我们的 HortonWorks Hadoop 集群上安装最新版本的 Kafka,该集群包含 2 个主节点、2 个边缘节点和 8 个数据节点。计划是在 8 个数据节点盒中的 2 个上安装 Kafka。 Kafka 每天需要处理多达几百万个事件,可能需要处理几批大小为 0.5Gb-1.2Gb 的文件。
问题:为了避免 kafka(或数据节点)潜在的性能下降,我需要考虑对数据节点或 kafka 进行任何特殊配置吗?
Kafka 通常是如何部署的(在专用盒子上还是可以在数据节点上运行)?
【问题讨论】:
标签: hadoop apache-kafka