【发布时间】:2018-08-23 02:58:04
【问题描述】:
我正在尝试使用一些网络监视器工作来进行 flink。我的目标是根据src_ip 计算不同的dst_ip。
我的以下代码有效,但性能真的很差。似乎每个滑动窗口都会重新计算所有事件,但这不是必需的。
例如,我们有事件发生在时间 1 - 600 秒。Flink 可以获取每秒的累加器,所以我们每秒有 600 个累加器。当第一个滑动窗口到期时,flink 只合并 1-300 的累加器,并销毁第二个 1 的累加器。这个窗口也可以在最后一秒之前预先合并 1-299。当第二个滑动窗口过期时,flink 只合并 2-301 的累加器,并销毁第二个 2 的累加器。以此类推.....
这种方式比将事件分配给多个窗口并计算每个窗口的聚合要高效得多。
flink 支持这个吗?并且我可以通过 flink 自己获得类似的功能吗?
非常感谢!
public static class AverageAccumulator2 {
String key;
Set<String> target;
AverageAccumulator2() {
target = new HashSet<>();
}
}
public static class Average2 implements AggregateFunction<ObjectNode, AverageAccumulator2, Tuple3<String, Long, Set<String>>> {
@Override
public AverageAccumulator2 createAccumulator() {
return new AverageAccumulator2();
}
@Override
public AverageAccumulator2 add(ObjectNode value, AverageAccumulator2 accumulator) {
accumulator.key = value.get("value").get("src_ip").asText();
accumulator.target.add(value.get("value").get("dst_ip").asText());
return accumulator;
}
@Override
public Tuple3<String, Long, Set<String>> getResult(AverageAccumulator2 accumulator) {
return new Tuple3<>(accumulator.key, (long) accumulator.target.size(), accumulator.target);
}
@Override
public AverageAccumulator2 merge(AverageAccumulator2 a, AverageAccumulator2 b) {
a.target.addAll(b.target);
return a;
}
}
final SingleOutputStreamOperator<Tuple3<String, Long, Set<String>> > process2 =
stream.keyBy(value -> value.get("value").get("sip").asText())
.timeWindow(Time.seconds(300),Time.seconds(1))
.aggregate(new Average2());
【问题讨论】:
标签: apache-flink