【发布时间】:2019-03-08 19:15:17
【问题描述】:
我正在研究 hadoop 中的概念验证,我可能会使用 HDP 和 HDF hortonwork 组件设置一个集群。
数据量确实很小,所以如果我没记错的话,每个节点的磁盘量可能不需要超过10 GB。
主从节点的 CPU 数量和 RAM 的考虑标准是什么?
【问题讨论】:
标签: amazon-web-services bigdata hadoop2 hortonworks-data-platform hortonworks-dataflow