干货 | Elastic Stack 技术栈应用于日志归集深度复盘

发布于 2022-4-19 16:04
浏览
0收藏

1、背景


1.公司行业偏传统,系统多日志杂,但是有任务需求,要把日志做规范化的归集和保存。
2.之前有两套基于 ES 的日志系统。一套是购买的厂商魔改且不可升级版;一套是开发团队基于某个核心系统定制的,除 ES 外的组件都是自行开发,且相关人员离职后无人继续维护,因此有一定局限性。
3.有着安全加密的要求。
4.涉及异地双中心,有跨集群查询展示需求。


2、框架规划


异地双中心各自独立集群。跨集群查询依靠 ES 自带的远程集群搜索(CCS)处理。

 

除了 filebeat 和 kibana 以外,所有组件均为物理环境部署。

 

主要功能组件如下:

 

1.filebeat: 日志抽取并传输。
2.kafka:队列组件,负责日志数据的缓冲。
3.logstash:主要负责日志处理。抽取kafka的日志数据,同时也负责接受一些其它协议如syslog/udp的日志数据。在接收数据后进行日志清洗,最终写入 ES。
4.elasticsearch:日志数据主要的存储模块。
5.kibana:日志数据的查询和管理模块,有冷热节点分层,热数据节点 SSD 存储。
6.grafana:负责日志数据的可视化。相较于kibana,grafana可以多数据源展示,更加灵活。
7.metricbeat:负责logstash性能的监控。


3、日志平台规划


1.日志数据格式统一,最基础的以 {时间戳} + {日志级别} + {类名} + {链路ID} + {日志信息} 的形式输出。其中时间戳必须带年月日。

 

2.在物理环境下,日志当前输出文件名唯一,以 rotation 的方式维持日志总体大小一定,比如 100MB*10。输出日志的文件名唯一是为了尽量减少 filebeat 监控的日志文件数目,被监控的日志数量过于庞大,则 filebeat 的cpu使用会受到影响。

 

3.容器环境下 filebeat 以 sidecar 的模式另起一个 pod 进行监控。

 

4.kafka 的 topic 以日志数据的流量大小来评估。将小流量的日志归并至同一个 topic,大流量的日志独立 topic。总体维持每个 topic 接收的日志数据流量规模相差不大。

 

5.logstash 使用 pipeline 的模式进行配置的组装。每个 topic 尽量用单独一组(2-3个为一组) logstash 处理数据。

 

6.从 filebeat->kafka->logstash->elasticsearch->kibana 整个链路均加密,kibana上开启用户权鉴。

 

7.日志数据使用数据流管理,对节点做冷热分层,在 ILM 上对不同的日志数据进行不同的策略管理。

 

4、工作问题整理


4.1. 远程集群通讯和加密


由于异地双中心,且集群通讯加密,因此就涉及到了两个加密集群通讯的场景问题。

 

解决办法:

 

 •  方法一:使用相同的证书(ca文件)颁发机构为所有连接的群集生成证书。


 •  方法二:从本地群集中将 CA 证书添加为每个远程群集中的受信任 CA。如果是两个不同证书的集群,可以在 elasticsearch.yml 中的xpack.security.transport.ssl.certificate_authorities 添加对方的证书而得到受信。

 

 •  原文参考地址:https://blog.csdn.net/UbuntuTouch/article/details/116569527


当时使用的是第一种办法,直接使用的是同一个ca去颁发的证书。

 

注意:ES 数据节点之间维持数据的同步,每个节点会维持一定数量的长链接。这在本地机房的条件下没有什么问题,但是在异地集群的条件下,可能有网络不稳定的情况,远程集群查询也因此有返回500的问题。建议这种情况,可以考虑自建客户端远程短链接查询。

 

4.2. filebeat 与 kafka 通讯加密


在 elasticsearch 官网上有着详细的加密通讯配置手册(7.2版本有单独的章节说明),但是其中没有涉及 filebeat 与 kafka 的加密通讯配置。这块主要涉及 golang 程序与 java 程序之间的证书转换。

 

解决方法之主要操作步骤如下:

干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区

4.3. kafka 消费问题


kafka 在 filebeat 与 logstash 之间充当数据缓冲的功能。

干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区

在 logstash 与 kafka 的参数配置上:

 

1.logstash 程序组总的消费线程数与 kafka 中 topic 的patition数量保持了一致,比如:topic 的 partition 数量为 24,logstash 有3 个,每个 logstash 用于消费 kafka 的线程为 8 个。
2.消费 kafka 队列的每批次数量 batch_size 设置为 2000.
3.logstash 的 pipeline 设置中,core 数量为服务器 cpu 核数。


但是在生产运行中,在增加了一个较大的日志流量归集后,logstash 消费 kafka 线程出现了消费组不断 rebalance 重选 leader 的情况。

 

而此时 es 的写入远没有达到瓶颈。而整体服务器资源使用也没出现异常。只能把优化方向转向 logstash 的消费上。

 

在群里小伙伴的帮助下,建议降低 logstash 的 batch_size,以减轻线程的 cpu 使用压力。

 

解决办法:

 

最终生产上将 batch_size 降低到 150,logstash 的消费能平稳继续。

 

PS:由于当时没有 kafka 和 logstash 性能监控有效的工具,没有保留更多的现场。后续加上 metricbeat 监控到,在上述参数下三个 logstash 最高能达到 45000 条/s,以供参考。

 

4.4. filebeat 参数调优


在使用 filebeat 抽取日志数据上送的时候,遇到了句柄数不释放和 cpu 消耗较高的情况。

 

在经过测试后,在生产上主要调整了这几个参数:

 

1.max_proc 设置为 2。可以抑制 filebeat 过高的使用 CPU。
2.close_timeout 设置为 5m。设置时间越短,句柄释放越快。


filebeat 官方手册最后有一章节关于问题定位的内容,建议在使用之前好好阅读。

 

4.5. 关于 filebeat 掉线


鉴于 filebeat 是使用 golang 开发的。而生产环境下,总会有一些复杂的情况,比如操作系统版本比较旧等情况。因此,会出现 filebeat 程序掉线的情况。

 

解决办法:

 

增加检查 filebeat 并能够重新拉起的定时任务。

 

4.6. 入库后 grok 查询


日志数据在使用时也有不少统计查询的需求,有时候这些需求并不固定,日志相对于的格式也并不是固定的,并不能在 logstash 进行日志清洗时全部解决,只能在查询阶段进行处理。

 

解决办法:方法 1. 使用 runtime 字段进行转换处理,需要 ES 版本高于 7.11 。

 

方法 2. 使用 pipeline + reindex 处理。利用 pipeline 的 grok 将日志数据进行进一步清洗,reindex 后统计查询。

 

第一种办法比较简单,但受限于需要较高的 ES 版本。这里主要记录一下第二种办法的处理流程。

干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区

4.7. ILM 的执行策略


ILM 的策略默认检查时间是 10mins。

 

但是在实际执行中,ILM 会定期运行,检查索引是否满足策略标准,并执行所需的步骤。

 

为了避免竞争条件,ILM 可能需要运行不止一次来执行完成一个操作所需的所有步骤。

 

例如,如果 ILM 确定一个索引满足 rollover 标准,它就开始执行完成rollover 操作所需的准备步骤。如果它不满足 rollover 条件,执行停止。

 

下一次ILM运行时,ILM将从它中断的地方继续执行。

 

这意味着即使indices.lifecycle.poll_interval ( _cluster/settings ) 被设置为10分钟,并且索引满足 rollover 标准,在完成翻转之前可能需要20分钟。

 

indices.lifecycle.poll_interval也可以被调整,但是不建议调整太密集,会增加 elasticsearch 运行负担。

 

调整命令如下:

干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区

ILM 的相关 api 也可以查看 ILM 在当前索引执行的阶段结果和进行修复。

 

检查命令:

干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区

重试命令:

干货 | Elastic Stack 技术栈应用于日志归集深度复盘-开源基础软件社区

4.8. rollover 的使用


rollover 的条件主要有索引大小(max_size)、文档数量(max_docs)、索引存在时间(max_age)这三个。同时,max_size判断的是主分片的大小,而不是整个索引的大小。

 

Elasticsearch 7.9 版本下,rollover的三个可设置条件中,max_docs 与 max_age 相对敏感,max_size 的判断会有一定延迟,可能是因为索引的主分片 size 大小会被 merge 后收缩,需要有一定时间的观察.测试之下,200 MB 之下的max_size会失效。

 

遗留问题


1.filebeat掉线的问题虽然通过定时任务解决了。但是从技术上来说,并没有找到真正原因。在官方论坛上,有工程师把原因归于 golang 程序的不稳定。如果有遇到类似问题的小伙伴,欢迎提供相关线索和解决思路。

 

2.kibana在容器中的多实例部署。背景在于生产的容器当前只能自行打镜像,不便拉取官方镜像,在生成多个kibana容器实例时,并不能形成多个uuid,导致现在容器上的kibana实例只有一个并不能水平扩展。欢迎有容器化经验的大拿指点迷津。


小结


以上是本人在基于 elasticsearch 相关开源技术栈进行归集日志时的方案和相关问题记录。

 

经验不多,水平有限,欢迎大家多多探讨交流。

 

作者介绍


金多安,Elasticsearch 认证(ECE)专家,Elastic中文社区责任编辑。

 

审稿人:铭毅天下

 

说明
 

上个月,死磕 Elasticsearch 知识星球搞了:“群智涌现”杯输出倒逼输入——Elastic干货输出活动。

 

后续会不定期逐步推出系列文章,目的:以文会友,“输出倒逼输入”。

 

推荐


1、重磅 | 死磕 Elasticsearch 方法论认知清单(2021年国庆更新版)


2、Elasticsearch 7.X 进阶实战私训课(口碑不错)

 

收藏
回复
举报
回复
添加资源
添加资源将有机会获得更多曝光,你也可以直接关联已上传资源 去关联
    相关推荐