【问题标题】:Logstash Auto update DataLogstash 自动更新数据
【发布时间】:2020-04-24 04:39:11
【问题描述】:

我正在使用最新版本的 logstash(7.6.2)。我尝试上传示例数据,并能够使用 logstash(启用自动重新加载)成功将其上传到 elasticsearch,并且能够在 Kibana 界面中看到索引。

但是,当我对以下配置文件进行更改时,我无法在 Kibana 界面中看到更新的数据。我试图删除 mutate 过滤器插件并重新加载 logstash 管道,但 Kibana 中的数据未更新。有趣的是它没有抛出任何错误。

Sample.conf

input{
file{
    path => "/usr/local/Cellar/sample.log"
    start_position => "beginning"
}
}

filter{
    grok{
        match => ["message", "%{TIMESTAMP_ISO8601:timestamp_string}%{SPACE}%{GREEDYDATA:line}"]
    }
    date{
        match => ["timestamp_string", "ISO8601"]
    }
    mutate{
        remove_field => [message, timestamp_string]
    }
}
output{
elasticsearch{
    hosts => ["localhost:9200"]
    index => "sample"
}
stdout{
    codec => rubydebug
}
}

感谢您提供任何帮助。 TIA

附: - 我是 ElasticSearch 的新手!

【问题讨论】:

    标签: logstash logstash-configuration


    【解决方案1】:

    如果你想再次解析一个完整的文件,你需要:

    • 删除 sindedb 文件
    • 或者只删除sincedb文件中的对应行

    然后,重新启动 Logstash。 Logstash 将重新解析文件。

    欲了解更多信息:https://www.elastic.co/guide/en/logstash/current/plugins-inputs-file.html#sincedb_path

    【讨论】:

    • 非常感谢!有效。但是,elasticsearch 中的索引现在有重复的记录,即来自新旧 logstash 上传的行。我知道在每次上传之前删除索引都会起作用,但是有什么方法可以在不删除的情况下完全更新索引?
    • 欢迎您。关于更新索引,这是 Elastic 社区中发布的相同查询的解决方案。我希望这个解决方案对你有用。 discuss.elastic.co/t/replace-the-indexed-data-with-new-data/…
    • 你也可以参考这个了解更多elastic.co/guide/en/logstash/current/…
    猜你喜欢
    • 2018-11-06
    • 1970-01-01
    • 2017-06-17
    • 2023-03-13
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多