你头疼的ELK难题,本文几乎都解决了(4)
在logstash output中使用if:
二、对ELK整体性能的优化 1、性能分析 服务器硬件Linux:1cpu4GRAM 假设每条日志250Byte。 分析: ①logstash-Linux:1cpu 4GRAM
②filebeat-Linux:1cpu 4GRAM
③瓶颈在logstash从Redis中取数据存入ES,开启一个logstash,每秒约处理6000条数据;开启两个logstash,每秒约处理10000条数据(cpu已基本跑满); ④logstash的启动过程占用大量系统资源,因为脚本中要检查java、ruby以及其他环境变量,启动后资源占用会恢复到正常状态。 2、关于收集日志的选择:logstash/filter 没有原则要求使用filebeat或logstash,两者作为shipper的功能是一样的。 区别在于:
总结: logstash/filter总之各有千秋,但是我推荐选择:在每个需要收集的日志服务器上配置filebeat,因为轻量级,用于收集日志;再统一输出给logstash,做对日志的处理;最后统一由logstash输出给els。 3、logstash的优化相关配置 可以优化的参数,可根据自己的硬件进行优化配置: ①pipeline线程数,,官方建议是等于CPU内核数
②实际output时的线程数
③每次发送的事件数
④发送延时
总结: 通过设置-w参数指定pipeline worker数量,也可直接修改配置文件logstash.yml。这会提高filter和output的线程数,如果需要的话,将其设置为cpu核心数的几倍是安全的,线程在I/O上是空闲的。 默认每个输出在一个pipeline worker线程上活动,可以在输出output中设置workers设置,不要将该值设置大于pipeline worker数。 还可以设置输出的batch_size数,例如ES输出与batch size一致。 filter设置multiline后,pipline worker会自动将为1,如果使用filebeat,建议在beat中就使用multiline,如果使用logstash作为shipper,建议在input中设置multiline,不要在filter中设置multiline。 Logstash中的JVM配置文件: Logstash是一个基于Java开发的程序,需要运行在JVM中,可以通过配置jvm.options来针对JVM进行设定。比如内存的最大最小、垃圾清理机制等等。JVM的内存分配不能太大不能太小,太大会拖慢操作系统。太小导致无法启动。默认如下:
4、引入Redis的相关问题 filebeat可以直接输入到logstash(indexer),但logstash没有存储功能,如果需要重启需要先停所有连入的beat,再停logstash,造成运维麻烦;另外如果logstash发生异常则会丢失数据;引入Redis作为数据缓冲池,当logstash异常停止后可以从Redis的客户端看到数据缓存在Redis中; Redis可以使用list(最长支持4,294,967,295条)或发布订阅存储模式; Redis做ELK缓冲队列的优化:
快照(RDB文件)和追加式文件(AOF文件),性能更好; save "" 禁用快照; appendonly no 关闭RDB。
maxmemory 0 #maxmemory为0的时候表示我们对Redis的内存使用没有限制。 5、Elasticsearch节点优化配置 服务器硬件配置,OS参数: 1)/etc/sysctl.conf 配置 vim /etc/sysctl.conf
[root@elasticsearch]# sysctl -p生效一下。 2)limits.conf 配置 (编辑:ASP站长网) |