【发布时间】:2019-01-16 13:51:47
【问题描述】:
我正在尝试解析自定义日志消息,这些消息也有跨越多行的错误堆栈跟踪。如果我的 GROK 模式是多行堆栈跟踪并且我在 elasticsearc 索引中看到的只是消息的第一行,我的 GROK 模式无法解析。奇怪的是,如果我使用像 grokdebugger 这样的解析器来测试模式也适用于多行。我在 logstash 配置中缺少什么
以下是我在logstash中的grok模式的sn-p:
grok {match => [
"message" , "%{TIMESTAMP_ISO8601:timestamp} \[%{SPACE}%{DATA:loglevel}\] %{DATA:class} \[%{DATA:operation}\] \(user=%{DATA:userid}\) (?m)%{GREEDYDATA:stacktrace}"
]
}
被解析的示例消息:
2018-01-09 21:38:21,414 [ INFO] abc.xyz.def:444: [Put] [Protect] (user=xyz) Random Message
没有被解析的消息:
2018-01-09 21:38:21,415 [ ERROR] abc.xyz.def:41: [Error] (user=xyz) Unhandled exception encountered...
Traceback (most recent call last):
File "/usr/local/lib/abc/xyz.py", line 113, in some_requestrv = self.dispatch_request()
【问题讨论】:
-
您是否使用多行编解码器/在托运人级别加入行?
-
没有。我正在使用 rsyslog 来发送日志。然后使用输入 tcp,然后是具有上述 grok 模式的过滤器,然后是 elasticsearch 的输出。
标签: elasticsearch logstash logstash-grok