【发布时间】:2017-09-07 07:03:22
【问题描述】:
我在 hadoop 中遇到了超时问题,我的工作被杀死了。 close() 方法中有一项繁重的清理工作,因此在进行这些清理时,我需要更新 close 方法中的进度。
对于这种情况,增加超时不是一个好的选择,因为它无法随着清理工作量的增加而扩展。
我正在查看的遗留作业是使用旧 API,它在 reduce() 方法中有一个报告器对象,可用于更新进度。但是,close() 方法中没有这样的 Reporter。那么有什么解决办法吗?
【问题讨论】:
标签: hadoop distributed-computing