当前位置:   article > 正文

Docker 安装 ELK (ElasticSearch、ElasticSearch-head、Logstash、Kibana、Filebeat) 容器 (完整详细图文版)_docker、 es、logstash、filebeat

docker、 es、logstash、filebeat

Docker 安装 (完整详细版)

Docker 日常命令大全(完整详细版)

说明:

elasticsearch、kibana、logstash、filebeat 版本要一致,elasticsearch-head 方便通过浏览器查看elasticsearch 的状态和索引数据。

Centos:7.0.4

ElasticSearch:7.17.4

Kibana:7.17.4

Logstash:7.17.4

Filebeat:7.17.4

Easticsearch-head:5

工作原理:

通过 filebeat(轻量级数据收集引擎)收集日志后,推送给 Logstash (数据收集处理引擎)进行过滤、分析、丰富、统一格式等操作,将处理后的日志存储在 Elasticsearch (分布式搜索引擎)的索引中,最后由 Kibana(可视化化平台)搜索、展示存储在 Elasticsearch 中索引数据。

Docker如果想安装软件 , 必须先到 Docker 镜像仓库下载镜像。

Docker官方镜像 

一、ElasticSearch

ElasticSearch:分布式搜索引擎。具有高可伸缩、高可靠、易管理等特点。可以用于全文检索、结构化检索和分析,并能将这三者结合起来。Elasticsearch 是用Java 基于 Lucene 开发,现在使用最广的开源搜索引擎之一,Wikipedia 、StackOverflow、Github 等都基于它来构建自己的搜索引擎。

1.1、寻找ElasticSearch镜像  

​ 

 参考安装

 1.2、下载ElasticSearch镜像

命令描述
docker pull elasticsearch下载最新版ElasticSearch镜像 (其实此命令就等同于 : docker pull elasticsearch:latest )
docker pull elasticsearch:xxx下载指定版本的ElasticSearch镜像 (xxx指具体版本号)
  1. # 下载
  2. docker pull elasticsearch:7.17.4
  3. # 查看镜像
  4. docker images

 1.3、创建ElasticSearch的文件夹

  1. # 创建Elasticsearch配置文件夹
  2. mkdir -p /home/elasticsearch/config
  3. # 创建Elasticsearch数据文件夹
  4. mkdir -p /home/elasticsearch/data
  5. # 创建Elasticsearch插件文件夹(如:ik)
  6. mkdir -p /home/elasticsearch/plugins
  7. # 写入配置文件
  8. echo "http.host: 0.0.0.0">>/home/elasticsearch/config/elasticsearch.yml
  9. # 给挂载目录添加权限
  10. chmod -R 777 /home/elasticsearch/
  11. # 修改elasticseach.yml文件,追加
  12. http.cors.enabled: true
  13. http.cors.allow-origin: "*"
  14. xpack:
  15. ml.enabled: false
  16. monitoring.enabled: false
  17. security.enabled: false
  18. watcher.enabled: false

 1.4、创建ElasticSearch容器并运行

多行模式

  1. -d:表示在后台运行容器;
  2. -p:将容器的端口 9200(TCP 请求端口) 和 9300(HTTP 请求端口)映射到主机上对应的端口;
  3. -e:设置环境变量;
  4. -v:挂载目录;
  5. --name:设置容器名称;
  6. docker run --name elasticsearch -p 9200:9200 -p9300:9300 \
  7. -e "discovery.type=single-node" \
  8. -v /home/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
  9. -v /home/elasticsearch/data:/usr/share/elasticsearch/data \
  10. -v /home/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
  11. -d elasticsearch:7.17.4

单行模式 

docker run --name elasticsearch -p 9200:9200 -p9300:9300 -e "discovery.type=single-node" -v /home/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/elasticsearch/data:/usr/share/elasticsearch/data -v /home/elasticsearch/plugins:/usr/share/elasticsearch/plugins -d elasticsearch:7.17.4

 1.5、测试ElasticSearch的安装结果

虚拟机访问:http://localhost:9200/

宿主机访问:http://192.168.124.137:9200/ 

到这里ElasticSearch就安装成功了

 查看ElasticSearch的容器内部的ip,下面都是需要用到!!!

  1. docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' elasticsearch

 Elasticsearch的ip为:172.17.0.4

二、Elasticsearch-head

2.1、运行 elasticsearch-head 容器

docker run -d  -p 9100:9100 --name elasticsearch-head mobz/elasticsearch-head:5

访问:http://192.168.124.137:9100/ 

 2.2、修改 vendor.js 主要是能让数据浏览右边显示索引数据

  1. # 创建文件夹
  2. mkdir -p /home/elasticsearch-head
  3. # 进入文件夹下
  4. cd /home/elasticsearch-head
  5. # 拷贝 vendor.js 文件到宿主机上
  6. docker cp elasticsearch-head:/usr/src/app/_site/vendor.js ./
  7. # 修改 vendor.js 文件内容
  8. sed -i '/contentType:/s/application\/x-www-form-urlencoded/application\/json;charset=UTF-8/' vendor.js
  9. sed -i '/var inspectData = s.contentType/s/application\/x-www-form-urlencoded/application\/json;charset=UTF-8/' vendor.js

 2.3、再次运行Elasticsearch-head容器

  1. # 删除容器
  2. docker rm -f elasticsearch-head
  3. # 运行容器
  4. docker run -d -p 9100:9100 -v /home/elasticsearch-head/vendor.js:/usr/src/app/_site/vendor.js --name elasticsearch-head mobz/elasticsearch-head:5

 2.4、测试Elasticsearch-head安装结果

三、Kibana

Kibana:一种数据可视化和挖掘工具,可以用于日志和时间序列分析、应用程序监控和运营智能使用案例。它提供了强大且易用的功能,例如直方图、线形图、饼图、热图和内置的地理空间支持。此外,它还提供了与 Elasticsearch 的紧密集成。 

3.1、创建Kibana容器并运行

docker pull kibana:7.17.4

3.2、Kibana配置文件

在服务器上新建配置文件,用于docker文件映射。所使用目录需对应新增。vi /home/kibana/kibana.yml 

  1. #Default Kibana configuration for docker target
  2. server.name: kibana
  3. server.host: "0"
  4. elasticsearch.hosts: ["http://172.17.0.4:9200"]
  5. xpack.monitoring.ui.container.elasticsearch.enabled: true

3.3、运行Kibana容器

  1. -d 表示在后台运行容器;
  2. -p 5601:5601:将容器的 5601 端口映射到主机的 5601 端口上;
  3. -v 目录挂载
  4. --name kibana:设置容器名称;
  5. docker run -d -p 5601:5601 \
  6. -v /home/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml \
  7. --name kibana \
  8. kibana:7.17.4

3.4、测试​Kibana安装结果

到这里kibana就安装成功了

四、Logstash

Logstash:数据收集处理引擎。支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储以供后续使用。

4.1、获取Logstach的镜像

docker pull logstash:7.17.4

4.2、准备 logstash.yml、pipelines.yml 配置文件

  1. # 创建文件夹
  2. mkdir -p /home/logstash/config
  3. # 创建 logstash.yml 文件
  4. vi /home/logstash/config/logstash.yml
  5. config:
  6. reload:
  7. automatic: true
  8. interval: 3s
  9. xpack:
  10. management.enabled: false
  11. monitoring.enabled: false
  12. # 创建 pipelines.yml 文件
  13. vi /home/logstash/config/pipelines.yml
  14. - pipeline.id: test
  15. path.config: "/usr/share/logstash/pipeline/logstash-filebeat.conf"

4.3、准备 logstash-filebeat.conf 配置文件

  1. # 创建文件夹
  2. mkdir -p /home/logstash/pipeline
  3. # 创建 logstash.yml 文件
  4. vi /home/logstash/pipeline/logstash-filebeat.conf
  5. # 访问端口配置
  6. input {
  7. beats {
  8. port => 5044
  9. }
  10. }
  11. # 过滤条件配置
  12. #filter{
  13. # grok{
  14. # match => {
  15. # "message" => "%{COMBINEDAPACHELOG}"
  16. # }
  17. # }
  18. #}
  19. # 输出到ES配置
  20. output {
  21. elasticsearch {
  22. hosts => ["http://172.17.0.4:9200"]
  23. index => "nginx_log"
  24. }
  25. }

4.4、运行Logstash容器

  1. docker run -d -p 5044:5044 \
  2. -v /home/logstash/pipeline:/usr/share/logstash/pipeline \
  3. -v /home/logstash/config:/usr/share/logstash/config \
  4. --name logstash logstash:7.17.4

 

  1. docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' logstash

 Logstash的IP为:172.17.0.3

五、Filebeat

Filebeat:轻量级数据收集引擎。相对于Logstash所占用的系统资源来说,Filebeat 所占用的系统资源几乎是微乎及微。它是基于原先 Logstash-fowarder 的源码改造出来。换句话说:Filebeat就是新版的 Logstash-fowarder,也会是 ELK Stack 在 Agent 的第一选择。

5.1、准备 filebeat.yml 配置文件

  1. # 创建文件夹
  2. mkdir -p /home/filebeat
  3. # 创建 kibana.yml 配置文件
  4. vi /home/filebeat/filebeat.yml
  5. filebeat.inputs:
  6. - type: log
  7. enabled: true
  8. paths:
  9. - /var/log/access.log #日志文件路径
  10. output.logstash:
  11. hosts: ["172.17.0.3:5044"] #logstash访问地址

5.2、运行filebeat容器

映射了 filebeat 配置文件和 nginx 日志,这样 nginx 日志有变化时映射过去的文件也会随之同步。

  1. # /home/logs/access.log变化更新
  2. docker run -d --name filebeat \
  3. -v /home/filebeat/filebeat.yml:/usr/share/filebeat/filebeat.yml \
  4. -v /home/logs/access.log:/var/log/access.log \
  5. -d elastic/filebeat:7.17.4

 5.3、测试运行结果

六、展示收集的数据 

6.1、elasticsearch收集的数据

6.2、kibana中展示数据

 

 

 

 

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/325613
推荐阅读
相关标签
  

闽ICP备14008679号