由于容器的特性,在容器重新创建后日志会废弃掉,如何通过持久化和中心化的处理容器日志变成一个棘手的问题,如何通过 Elastic Stack 进行一站式的数据采集,数据清洗,数据落地,数据可视化,让数据发挥真正的价值呢?
架构设计
涉及到 Elastic Stack 中 Filebeat 是用于采集 Docker 相关的日志, Elasticsearch 是用于对于数据落地存储和搜索的引擎, Kibana 是用于对数据可视化的工具。
在 Docker 中容器的日志是存储在/var/lib/docker/containers/ 目录下的,目录下的每一个文件夹为容器ID,容器ID目录下的 log 类型文件则为容器的日志文件。
实施方法
以 Docker 环境下为例
Filebeat
启动 Filebeat 容器,并且将存储卷映射到数据目录
docker run -d --name filebeat --user=root -v /var/lib/docker/containers:/var/lib/docker/containers elastic/filebeat:7.9.2
进入容器修改配置
docker exec -it filebeat /bin/bash
修改配置,添加 Elasticsearch 和 Kibana 的主机
vi filebeat.yml
filebeat.config:
modules: path: ${path.config}/modules.d/*.yml reload.enabled: false
processors:
- add_cloud_metadata: ~
- add_docker_metadata: ~
filebeat.inputs:
- type: docker containers: path: "/var/lib/docker/containers" json.keys_under_root: true ids: - "*"
output.elasticsearch:
hosts: 'elasticsearch:9200'
username: "elastic"
password: "xxx"
setup.kibana:
host: "kibana:5601"
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
设置 Filebeat 创建 Kibana上的 Index Pattern 和 Dashboard
filebeat setup
重启 Filebeat 生效配置
docker restart filebeat
可视化展示
通过 Kibana 中的 Discover 功能
文章来源: yekangming.blog.csdn.net,作者:叶康铭,版权归原作者所有,如需转载,请联系作者。
原文链接:yekangming.blog.csdn.net/article/details/109182259