【问题标题】:Running Hadoop jobs on YARN - Killing container在 YARN 上运行 Hadoop 作业 - 杀死容器
【发布时间】:2016-05-09 15:48:40
【问题描述】:

我在 YARN 上运行 Hadoop 作业时遇到问题,尤其是在 Ambari 上。我是 Hadoop 新手,写过 MR 作业,但没有集群管理经验。

我正在尝试为一个小输入文件(如 1.4MB)运行 WordCount 示例,但大多数时候我会遇到如下异常:

Application application_1453983463294_0005 failed 2 times due to AM Container for appattempt_1453983463294_0005_000002 exited with exitCode: -104
For more detailed output, check application tracking page:http://hdp-master.nissatech.local:8088/cluster/app/application_1453983463294_0005Then, click on links to logs of each attempt.
Diagnostics: Container [pid=23429,containerID=container_1453983463294_0005_02_000001] is running beyond physical memory limits. Current usage: 264.6 MB of 256 MB physical memory used; 1.9 GB of 537.6 MB virtual memory used. Killing container.

看来我应该更改堆限制。我不明白这么小的工作怎么可能需要这么多的堆?

YARN 是使用 Ambari 默认设置安装的,所以我没有更改任何参数。这是一个有 4 台机器的小型集群,其中 3 台用作 DataNodes/NodeManagers(并且有目前未使用的 RegionServers)。每个工人有 4GB 的 RAM 和 4 个核心。

具体问题是什么,如何解决?

此外,如果您提供任何可以帮助我了解如何设置和配置小型集群(例如最多 10 台机器)的参考资料,我将不胜感激。我的意思是要使用多少 RAM 和 CPU。

【问题讨论】:

    标签: hadoop hadoop-yarn ambari


    【解决方案1】:

    在我看来,被杀死的容器是 AM,而不是工作。那将是应用程序管理器,换句话说就是运行在您的 Yarn 上的“map-reduce”应用程序。这意味着无论 WordCount 样本多么简单,它都不是违规容器。

    你能检查yarn.app.mapreduce.am.resource.mb 的配置值吗? default 是 1.5GB,看来您的集群配置为不允许超过 256Mb 的容器。配置的yarn.nodemanager.resource.memory-mb是什么?

    我不确定 Ambari 如何配置您的集群资源,但看起来您必须手动调整它。遵循 How to Plan and Configure YARN and MapReduce 2 in HDP 2.0Tuning the Cluster for MapReduce v2 (YARN) 之类的指南。

    【讨论】:

    • 感谢您的回答,当我增加值时,问题就消失了。我将“最小容器大小(内存)”的值从 256MB 更改为 512MB,将“最大容器大小(内存)”从 2048MB 更改为 3072MB。奇怪的是,它并没有达到上限,而是使用了较低的256MB。我猜这太小了。该值是默认设置的。
    • 你能解释一下这个例子中工作节点的值,为什么它们这么大?这真的是在现实中使用的吗?它说“下表显示了具有 24 个 vcore 和 256 GB 内存的工作节点的示例需求估计。”,我认为 Hadoop 是关于商品硬件的。就商品而言,我认为工作节点需要 4 个内核和 4 GB RAM。我错了吗?
    • 最好参考您的具体分发手册,例如。 docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.0/…
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-10-31
    • 2016-08-24
    • 2012-07-12
    相关资源
    最近更新 更多