【发布时间】:2016-09-15 07:20:56
【问题描述】:
我是巴斯克大学的学生,我正在尝试使用 HDP 部署一个小型集群。我正在浏览 Hortonworks 的安装指南,但没有找到我想要的答案。我的问题是:
使用 Ambari 和 HDP 部署由 2 个初始节点组成的集群需要多少内存和磁盘空间?我每个节点有 25GB 的磁盘和 4GB 的内存?够了吗?
非常感谢!
【问题讨论】:
标签: hadoop deployment cluster-computing disk ambari
我是巴斯克大学的学生,我正在尝试使用 HDP 部署一个小型集群。我正在浏览 Hortonworks 的安装指南,但没有找到我想要的答案。我的问题是:
使用 Ambari 和 HDP 部署由 2 个初始节点组成的集群需要多少内存和磁盘空间?我每个节点有 25GB 的磁盘和 4GB 的内存?够了吗?
非常感谢!
【问题讨论】:
标签: hadoop deployment cluster-computing disk ambari
根据 Hortonworks 社区论坛,用户 Nitin Shelke 提供的答案如下:
"将所有主组件安装在内存超过 10GB 和 50GB 磁盘空间的主机上。之后在从节点上根据使用要求添加更多磁盘空间,4GB 内存就足够了。
在从节点上也安装从组件。”
【讨论】: