【问题标题】:ELK LDAP log filteringELK LDAP 日志过滤
【发布时间】:2016-05-19 18:40:19
【问题描述】:

两件事:我们的日志看起来像这样 -

May 11 06:51:31 ldap slapd[6694]: conn=1574001 op=1 SRCH base="cn=s_02,ou=users,o=meta" scope=0 deref=0 filter="(...)" 我需要 1)获取时间戳并将其设置到 Kibana 发现面板的左侧“时间”列,2)获取连接后的数字并将其设为字段,以便能够按数字排序。我花了一整天的时间研究,日期和变异似乎很有希望,但我无法正确实施它们。 配置文件如下所示:
input {
   file {
      path => "/Desktop/logs/*.log"
      type => "log"
      sincedb_path => "/dev/null"
   }
}

output {

  elasticsearch {
    hosts => "127.0.0.1"
    index => "logstash-%{type}-%{+YYYY.MM.dd}"
  }

  file {
    path => "/home/logsOut/%{type}.%{+yyyy.MM.dd.HH.mm}"
  }
}

【问题讨论】:

  • 您只需要这两个字段吗?

标签: elasticsearch logstash kibana elastic-stack


【解决方案1】:

如果您只需要这两个作为单独的字段:

filter {
    grok {
        match => { 
            "message" => [ "%{SYSLOGBASE} conn=%{INT:conn}" ]
        }
    }

    date {
        match => [ "timestamp", "MMM dd HH:mm:ss" ]
        target => "time"
    }

    mutate {
        convert => { "conn" => "integer" }
    }
}

【讨论】:

  • 所以时间戳会在结果中生成一个新字段 - 有没有办法将其移至时间列?我认为这就是你想要做的,但它不适合我。另外,我需要通过 conn 订购日志,我知道你在做什么,但我对如何使用它感到困惑。
  • 我想我可以为此使用可视化工具。现在正在努力学习。谢谢!
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2018-07-02
  • 1970-01-01
  • 2020-03-19
  • 2020-03-02
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多