ELK日志保留7天-索引生命周期策略
一、简介
ELK日志我们一般都是按天存储,例如索引名为"kafkalog-2022-04-05",因为日志量所占的存储是非常大的,我们不能一直保存,而是要定期清理旧的,这里就以保留7天日志为例。
自动清理7天以前的日志可以用定时任务的方式,这样就需要加入多一个定时任务,可能不同服务记录的索引名又不一样,这样用定时任务配还是没那么方便。
ES给我们提供了一个索引的生命周期策略(lifecycle),就可以对索引指定删除时间,能很好解决这个问题。
索引生命周期分为四个阶段:HOT(热)=>WARM(温)=》COLD(冷)=>DELETE(删除)
二、给索引设生命周期策略(ILM)
1.配置生命周期策略(policy)
这里为ELK日志超过7天的自动删除,所以只需要用到DELETE(删除阶段)
PUT _ilm/policy/auto_delete_policy { "policy": { "phases": { "delete": { "min_age": "7d", "actions": { "delete": {} } } } } }
创建一个自动删除策略(auto_delete_policy)
delete:删除阶段,7天执行删除索引动作
查看策略:GET _ilm/policy/
2.创建索引模板 索引模板可以匹配索引名称,匹配到的索引名称按这个模板创建mapping
PUT _template/elk_template { "index_patterns": ["kafka*"], "settings": { "index":{ "lifecycle":{ "name":"auto_delete_policy", "indexing_complete":true } }} }
创建索引模板(elk_tempalte),index.lifecycle.name把上面的自动删除策略绑定到elk索引模板
【ELK日志保留7天-索引生命周期策略】创建kafka开头的索引时就会应用这个模板。
indexing_complete:true,必须设为true,跳过HOT阶段的Rollover
查看模板:GET /_template/
3.测试效果 logstash配置:
logstash接收kafka的输入,输出到es。
input { kafka { type=>"log1" topics => "kafkalog" #在kafka这个topics提取数据 bootstrap_servers => "127.0.0.1:9092"# kafka的地址 codec => "json"# 在提取kafka主机的日志时,需要写成json格式 } }output { if [type] =="log1" { elasticsearch { hosts => ["127.0.0.1:9200"] #es地址 index => "kafkalog%{+yyyy.MM.dd}" #把日志采集到es的索引名称 # user => "elastic" # password => "123456" } } }
这里测试时把DELETE的日期又7天"7d"改为1分钟"1m"。
生命周期策略默认10分钟检测一次,为了方便测试,这里设为30s。
PUT /_cluster/settings { "transient": { "indices.lifecycle.poll_interval":"30s" } }
把日志写入到es后,查看日志索引的生命周期策略信息。
GET kafka*/_ilm/explain查看kafka开头索引的生命周期策略
文章图片
过一会再点查询,索引已经没有了,说明已经生效。
文章图片
推荐阅读
- C语言标准库|C语言保留字
- Java|Java ASM使用logback日志级别动态切换方案展示
- mysql|7、mysql的redo log、bin log日志
- 3月30日 代码检视日志
- ASP.Net|ASP.Net Core中的日志与分布式链路追踪
- java底层JDK|java底层JDK Logging日志模块处理细节深入分析
- 数据库篇(mysql日志类型之|数据库篇:mysql日志类型之 redo、undo、binlog)
- 巧用自定义注解,一行代码搞定审计日志
- 高性能Go语言日志模块dlog使用说明
- 为什么我建议线上高并发量的日志输出的时候不能带有代码位置