【发布时间】:2018-06-19 16:22:24
【问题描述】:
我对 Elasticsearch Logstash 有疑问。 我的目标是使用 logstash 自动将日志发送到 elasticsearch。
我的原始日志是这样的:
2016-09-01T10:58:41+02:00 INFO (6): 165.225.76.76 entreprise1 email1@gmail.com POST /application/controller/action Mozilla/5.0 (Windows NT 6.1; Trident/7.0; rv:11.0) like Gecko {"getid":"1"} 86rkt2dqsdze5if1bqldfl1
2016-09-01T10:58:41+02:00 INFO (6): 165.225.76.76 entreprise2 email2@gmail.com POST /application/controller2/action2 Mozilla/5.0 (Windows NT 6.1; Trident/7.0; rv:11.0) like Gecko {"getid":"2"} 86rkt2rgdgdfgdfgeqldfl1
2016-09-01T10:58:41+02:00 INFO (6): 165.225.76.76 entreprise3 email3@gmail.com POST /application/controller2/action2 Mozilla/5.0 (Windows NT 6.1; Trident/7.0; rv:11.0) like Gecko {"getid":"2"}
问题是我不想以这种形式插入我的日志。我想在 python 中使用预处理脚本,以便在使用 logstash 注入 Elastic 之前转换我的数据。
一开始,我只想使用 python 脚本登录到 elasticsearch。但是我在很多文件夹和文件中分离了大量的日志,并且不断更新,所以我认为使用 logstash 或 filebeat 更强大。我正在尝试使用 filebeat 和 gork 过滤器(对于我的情况来说还不够),但我认为在记录之前使用预处理脚本是不可能的。
日志应该是 Python 脚本末尾的样子:
{"page": "/application/controller/action", "ip": "165.225.76.76", "browser": "Mozilla/5.0 (Windows NT 6.1; Trident/7.0; rv:11.0) like Gecko", "action": "action", "client": "entreprise1", "email": "email1@gmail.com", "feature": "application_controller_action", "time": "2016-09-01 10:58:41", "method": "POST", "controller": "controller", "application": "application"}
{"page": "/application/controller2/action2", "ip": "165.225.76.76", "browser": "Mozilla/5.0 (Windows NT 6.1; Trident/7.0; rv:11.0) like Gecko", "action": "action2", "client": "entreprise2", "email": "email2@gmail.com", "feature": "application_controller2_action2", "time": "2016-09-01 10:58:41", "method": "POST", "controller": "controller2", "application": "application"}
{"page": "/application3/controller/action3", "ip": "165.225.76.76", "browser": "Mozilla/5.0 (Windows NT 6.1; Trident/7.0; rv:11.0) like Gecko", "action": "action3", "client": "entreprise3", "email": "email3@gmail.com", "feature": "application_controller3_action3", "time": "2016-09-01 10:58:41", "method": "POST", "controller": "controller3", "application": "application"}
我正在努力在 logstash 过滤器中实现 python 脚本。我知道这是可以实现的,但基本上它是用 ruby 脚本完成的(参见:https://www.elastic.co/guide/en/logstash/current/plugins-filters-ruby.html)
1) 你认为使用 logstash 可以解决我的问题吗?
2) 如果是,我的 python 脚本应该将原始日志行作为输入,将 json 格式的行作为输出?
3) 日志文件中添加一行日志时,每次都重新插入整个文件,请问如何处理?
4) 你认为用 filebeat 可以做到吗?根据你的说法,什么是最适合我的情况?
目前,我的配置 logstash 文件如下所示:
input {
file {
path => "/logpath/logs/*/*.txt"
start_position => "beginning"
}
}
filter {
# Here is where I should use my script to transform my logs into my json needed format
date {
match => ["time", "YYYY-MM-dd HH:mm:ss" ]
}
geoip {
source => "ip"
target => "geoip"
}
}
output {
stdout {
codec => dots {}
}
elasticsearch {
index => "logs_index"
document_type => "logs"
template => "./logs_template.json"
template_name => "logs_test"
template_overwrite => true
}
}
我真的要提前感谢任何可以帮助我并考虑我的请求的人。
迪米特里
PS:对不起语法,英语不是我的主要语言。
【问题讨论】:
标签: python elasticsearch logging logstash filebeat