【发布时间】:2017-12-08 10:34:57
【问题描述】:
我尝试使用 Kafka Streams 使用不同大小的时间窗口聚合大量数据。
我将缓存大小增加到 2 GB,但是当我在 1 小时内设置窗口大小时,CPU 负载达到 100%,应用程序开始变慢。
我的代码如下所示:
val tradeStream = builder.stream<String, Trade>(configuration.topicNamePattern, Consumed.with(Serdes.String(), JsonSerde(Trade::class.java)))
tradeStream
.groupBy(
{ _, trade -> trade.pair },
Serialized.with(JsonSerde(TokensPair::class.java), JsonSerde(Trade::class.java))
)
.windowedBy(TimeWindows.of(windowDuration).advanceBy(windowHop).until(windowDuration))
.aggregate(
{ Ticker(windowDuration) },
{ _, newValue, aggregate -> aggregate.add(newValue) },
Materialized.`as`<TokensPair, Ticker>(storeByPairs)
.withKeySerde(JsonSerde(TokensPair::class.java))
.withValueSerde(JsonSerde(Ticker::class.java))
)
.toStream()
.filter { tokensPair, _ -> filterFinishedWindow(tokensPair.window(), windowHop) }
.map { tokensPair, ticker -> KeyValue(
TickerKey(ticker.tokensPair!!, windowDuration, Timestamp(tokensPair.window().start())),
ticker.calcPrice()
)}
.to(topicName, Produced.with(JsonSerde(TickerKey::class.java), JsonSerde(Ticker::class.java)))
此外,在将聚合数据发送到 kafka 主题之前,它们会根据窗口的结束时间进行过滤,以便发送到刚刚结束的主题窗口。
也许有一些更好的方法来实现这种聚合?
【问题讨论】:
标签: apache-kafka aggregate apache-kafka-streams