【问题标题】:I have a separate machine for elasticsearch. It is 500GB, but logs are consuming full memory in 24 hours. How do I compress it and free memory?我有一台用于弹性搜索的单独机器。它是 500GB,但日志在 24 小时内消耗了全部内存。如何压缩它并释放内存?
【发布时间】:2023-11-12 15:39:01
【问题描述】:

[2019-08-01T13:20:48,015][INFO][logstash.outputs.elasticsearch] 重试失败的操作,响应代码:403({“type”=>“cluster_block_exception”,“reason”=>“index [metricbea...删除(api)];“})

【问题讨论】:

  • 我们需要更多信息、您拥有的日志数量、日志大小、您的映射是否优化? ...

标签: elasticsearch logstash kibana metrics filebeat


【解决方案1】:

您的日志消息被切断。究竟是这个还是接近它?

[logstash.outputs.elasticsearch] retrying failed action with response code: 403 ({"type"=>"cluster_block_exception", "reason"=>"blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];"})

这意味着您的磁盘已满(达到洪水阶段水印,默认情况下为 95%)。在您的日志消息中,我真的看不到任何与内存有关的内容。

要清除洪水阶段:添加磁盘空间(或删除旧数据),然后您需要使用以下内容解锁所有受影响的索引:

PUT /_all/_settings
{
  "index.blocks.read_only_allow_delete": null
}

【讨论】: