【发布时间】:2016-12-12 18:15:20
【问题描述】:
我有一个 Flink 用例,我需要从文件中读取信息,存储每一行,然后使用此状态过滤另一个流。
我现在可以使用connect 运算符和RichCoFlatMapFunction 完成所有这些工作,但感觉过于复杂。另外,我担心flatMap2 可能会在从文件中加载所有状态之前开始执行:
fileStream
.connect(partRecordStream.keyBy((KeySelector<PartRecord, String>) partRecord -> partRecord.getPartId()))
.keyBy((KeySelector<String, String>) partId -> partId, (KeySelector<PartRecord, String>) partRecord -> partRecord.getPartId())
.flatMap(new RichCoFlatMapFunction<String, PartRecord, PartRecord>() {
private transient ValueState<String> storedPartId;
@Override
public void flatMap1(String partId, Collector<PartRecord> out) throws Exception {
// store state
storedPartId.update(partId);
}
@Override
public void flatMap2(PartRecord record, Collector<PartRecord> out) throws Exception {
if (record.getPartId().equals(storedPartId.value())) {
out.collect(record);
} else {
// do nothing
}
}
@Override
public void open(Configuration parameters) throws Exception {
ValueStateDescriptor<String> descriptor =
new ValueStateDescriptor<>(
"partId", // the state name
TypeInformation.of(new TypeHint<String>() {}),
null);
storedPartId = getRuntimeContext().getState(descriptor);
}
});
有没有更好的方法(从 Flink 1.1.3 开始)来完成这种加载状态模式,然后在后续流中使用它?
【问题讨论】:
标签: apache-flink flink-streaming