【发布时间】:2020-08-25 20:32:49
【问题描述】:
Apache Spark 是基于时间的窗口条件,Flink 是基于记录的窗口条件。
任何机构都可以详细解释什么是窗口标准?
【问题讨论】:
标签: apache-spark apache-flink data-analysis apache-storm
Apache Spark 是基于时间的窗口条件,Flink 是基于记录的窗口条件。
任何机构都可以详细解释什么是窗口标准?
【问题讨论】:
标签: apache-spark apache-flink data-analysis apache-storm
通过标准,它们表示谓词或条件。例如,每 2 分钟触发一个窗口。 Flink 的重点在于 Flink 是一个基于记录的流引擎。它一次处理每条记录。而 Spark 有微批次,它会在微批次的时间范围内处理所有事件。 Flink 有翻滚、滑动、会话、全局窗口等概念。
下面有来自链接 (https://ci.apache.org/projects/flink/flink-docs-stable/dev/stream/operators/windows.html#window-assigners) 的简短说明。但是您可以在链接上找到带有数字的详细说明。
翻转窗口分配器将每个元素分配给指定窗口大小的窗口。 滑动窗口分配器将元素分配给固定长度的窗口。 会话窗口分配器按活动会话对元素进行分组。 全局窗口分配器将具有相同键的所有元素分配给同一个全局窗口。
【讨论】: