【发布时间】:2015-03-17 23:34:36
【问题描述】:
我有一个文本文件和一个解析器,它将解析每一行并存储到我的 customSplitInput 中,我在我的自定义 FileInputFormat 阶段进行解析,所以我的拆分是自定义的。现在,我有 2 个拆分,每个拆分中都包含我的数据列表。
但是现在,我的映射器函数在同一个拆分中被重复调用。我认为 mapper 函数只会根据您拥有的拆分数量被调用?
我不知道这是否适用,但我的自定义 InputSplit 为 getLength() 返回一个固定数字,为 getLocation() 返回一个空字符串数组。我不确定要为这些添加什么。
@Override
public RecordReader<LongWritable, ArrayWritable> createRecordReader(
InputSplit input, TaskAttemptContext taskContext)
throws IOException, InterruptedException {
logger.info(">>> Creating Record Reader");
CustomRecordReader recordReader = new CustomRecordReader(
(EntryInputSplit) input);
return recordReader;
}
【问题讨论】:
标签: hadoop mapreduce hadoop-yarn