【发布时间】:2021-02-14 02:07:48
【问题描述】:
我有 1- 一个 CSV 文件和 2- 一个实时 KAFKA 流。 KAFKA 流引入了实时流日志,CSV 文件包含元数据记录,我需要将它们与流日志连接起来,然后再将它们发送到 Elastic Search。
Kafka 流日志和 CSV 记录示例:
KAFKA log: MachineID: 2424, MachineType: 1, MessageType: 9
CSV record: MachineID: 2424, MachineOwner: JohnDuo
记录我需要在发送到 ES 之前在 logstash 中构建:
MachineID: 2424
MachineOwner: JohnDuo
MachineType: 1
MessageType: 9
我想要一个解决方案,一个 Ruby 或 Logstash 插件或其他任何东西来读取这个 CSV 文件一次 并将它们引入并加入到 Logstash conf 文件中。我需要保留内容 CSV 文件在内存中的数量,否则 CSV 在每个实时 Kafka 日志上的查找都会影响我的 Logstash 性能。
【问题讨论】:
标签: ruby elasticsearch join apache-kafka logstash