【发布时间】:2018-12-26 08:39:22
【问题描述】:
我是 ELK 堆栈的新手,我只是想知道是否可以使用 Kafka 将我们的日志文件发送到 Elasticsearch。 但我也需要在 Kafka 中完成 Logstash 的工作(使用像 grok 这样的过滤器解析日志)。这整个事情可能吗?基本上我想要做的是用 Kafka 替换 Filebeats 和 Logstash 的组合,我想知道它是否可能。
谢谢你:)
注意:我要做的是Ship + Parse Kafka 中的日志。我知道使用 Elasticsearch 连接器可以将日志发送到 Elasticsearch,但我要问的是 Kafka 是否可以解析数据(Logstash 的工作)。
【问题讨论】:
-
您可以查看该问题:stackoverflow.com/questions/48561197/…。似乎可以使用 connect api 和 elasticsearch 连接器。
-
在 Logstash 解析日志后,在将 Elasticsearch 与 Kafka 连接时提出了该特定问题。我要问的是是否可以通过 Kafka 获得 Logstash 和 Filebeat 的工作(运送和解析数据)?
标签: elasticsearch logging apache-kafka logstash filebeat