百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Docker上使用Elasticsearch,Logstash,Kibana

nanshan 2025-07-03 18:20 14 浏览 0 评论

在对一个项目做性能测试时我需要处理我们web服务器的访问日志来分析当前用户的访问情况。因此,我想这是试用ELK的一个好机会。

ELK 栈

首先要注意的是使用它是非常简单的。从决定使用ELK到在本机上搭一个可用的原型只花了几小时。下面看看它们各个部分:

Elasticsearch

Elasticsearch 是一个基于Lucene的搜索服务器,它是开源的,GitHub的地址

安装Elasticsearch只需要做一件事,下载并运行它:

  wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.4.2.tar.gz
  tar -zxvf elasticsearch-1.4.2.tar.gz
  cd elasticsearch-1.4.2
  ./bin/elasticsearch
[2015-02-11 10:43:21,573][INFO ][node                     ] [Jumbo Carnation] version[1.4.2], pid[6019], build[927caff/2014-12-16T14:11:12Z]
[2015-02-11 10:43:21,574][INFO ][node                     ] [Jumbo Carnation] initializing ...
[2015-02-11 10:43:21,578][INFO ][plugins                  ] [Jumbo Carnation] loaded , sites 
[2015-02-11 10:43:23,483][INFO ][node                     ] [Jumbo Carnation] initialized
[2015-02-11 10:43:23,483][INFO ][node                     ] [Jumbo Carnation] starting ...
[2015-02-11 10:43:23,528][INFO ][transport                ] [Jumbo Carnation] bound_address {inet[/0:0:0:0:0:0:0:0:9300]}, publish_address {inet[/10.105.14.17:9300]}
[2015-02-11 10:43:23,540][INFO ][discovery                ] [Jumbo Carnation] elasticsearch/_EGLpT09SfCaIbfW4KCSqg
[2015-02-11 10:43:27,315][INFO ][cluster.service          ] [Jumbo Carnation] new_master [Jumbo Carnation][_EGLpT09SfCaIbfW4KCSqg][pumuki][inet[/10.105.14.17:9300]], reason: zen-disco-join (elected_as_master)
[2015-02-11 10:43:27,332][INFO ][http                     ] [Jumbo Carnation] bound_address {inet[/0:0:0:0:0:0:0:0:9200]}, publish_address {inet[/10.105.14.17:9200]}
[2015-02-11 10:43:27,332][INFO ][node                     ] [Jumbo Carnation] started
[2015-02-11 10:43:27,783][INFO ][gateway                  ] [Jumbo Carnation] recovered [4] indices into cluster_state

上面的命令将设置Elasticsearch web server 在localhost的9200端口监听。此时,你可以访问http://localhost:9200将会看到如下信息:

  curl -XGET http://localhost:9200/{ "status" : 200, "name" : "Jumbo Carnation", "cluster_name" : "elasticsearch", "version" : { "number" : "1.4.2", "build_hash" : "927caff6f05403e936c20bf4529f144f0c89fd8c", "build_timestamp" : "2014-12-16T14:11:12Z", "build_snapshot" : false, "lucene_version" : "4.10.2" }, "tagline" : "You Know, for Search" }

也可以查看统计信息:
http://localhost:9200/_stats

<span></span><span>  curl -XGET http://localhost:9200/_stats</span>
<span><span>{"_shards":{"total":0,"successful":0,"failed":0},"_all":{"primaries":{},"total":{}},"indices":{}}</span></span>

在测试时我处理了多次不同的日志,因此为了清除elasticsearch实例中的信息,我发现下面这个命令非常有用,它将清空你所有的数据,所以要当心喽。

<span></span><span>  curl -XDELETE "http://localhost:9200/*"</span>
<span><span>{"acknowledged":true}</span></span>

Logstash

Logstash是一个管理事件和日志的工具。基本上用 于收集,解析和存储日志。当和Elasticsearch一起使用时,你可以发送结构化的处理日志给Elasticsearch去查询。它同样也是开源的,它是elasticsearch家族的一部分,它的源码在Github project repo.

你需要去下载安装包以用于安装:

<span></span><span>  wget https://download.elasticsearch.org/logstash/logstash/logstash-1.4.2.tar.gz</span>
<span><span></span><span>  tar -zxvf logstashh-1.4.2.tar.gz</span></span>
<span><span></span><span>  cd logstash-1.4.2</span></span>

为了处理你的访问日志并将它们发送到Elasticsearch,你需要创建logstash配置文件。我的配置文件与下面的类似:

<span></span><span>  cat logstash_simple.conf </span>
<span><span>input {</span></span>
<span><span>  file {</span></span>
<span><span>  path => "/var/log/access/*.log"</span></span>
<span><span>  type => "apache_access"</span></span>
<span><span>  }</span></span>
<span><span>}</span></span>
<span><span>filter {</span></span>
<span><span>  if [path] =~ "access" {</span></span>
<span><span>  mutate { replace => { "type" => "apache_access" } }</span></span>
<span><span>  grok {</span></span>
<span><span>  match => { "message" => "%{COMBINEDAPACHELOG}" }</span></span>
<span><span>  date {</span></span>
<span><span>  match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]</span></span>
<span><span>output {</span></span>
<span><span>  elasticsearch_http {</span></span>
<span><span>  host => localhost </span></span>
<span><span> } </span></span>
<span><span> stdout { </span></span>
<span><span></span></span>

在input配置节,定义了哪些日志需要logstash处理。你可以定义不同类型的input,但我们基本上都从文件中获取。在文档页可以查看其它类型的input.

在过滤器配置节,Filter定义了logstash将如何处理你的日志。我们使用grok,它就像是一个用于非结构化数据的正则解析器。我们只使用了%{COMBINEDAPACHELOG} 正则并设置了日期的格式。

在输出配置节output,我已创建了两个输出。我们Elasticsearch实例和标准输出,基本上用于查看发生了什么。

使用下面命令去启动Logstash:

<span></span><span>  bin/logstash -f logstash_simple.conf</span>

Kibana

Kibana是一个在elasticsearch之上的一个数据可视化工具。Github 项目。

只需要下载然后运行它:

<span></span><span>  wget https://download.elasticsearch.org/kibana/kibana/kibana-4.0.0-beta3.tar.gz</span>
<span><span></span><span>  tar -zxvf kibana-4.0.0-beta3.tar.gz</span></span>
<span><span></span><span>  cd kibana-4.0.0-beta3</span></span>
<span><span></span><span>  bin/kibana</span></span>
<span><span>The Kibana Backend is starting up... be patient</span></span>
<span><span>{"@timestamp":"2015-02-11T12:34:29+00:00","level":"INFO","name":"Kibana","message":"Kibana server started on tcp://0.0.0.0:5601 in production mode."}</span></span>

然后,Kibana将会运行在localhost的5601端口。

第一页会要求你创建索引。如果没有任何数据你将不能创建索引。一早你创建好了索引你就可以开始查询数据了。

Deploy部署

一旦这个ELK栈在本地运行,我认为将它部署到我们的box上,并且持续的发送我们的访问日志以使日志不断保持更新。

我也认为创建一个Docker容器以使它在未来可以轻易复制是非常可行的。

首选方法,在一个地方去运行所有ELK。

我的首选 方法是创建一个在其之上运行ELK三个服务的单一容器。我知道那不是你愿意使用Docker的方式,但我还想是先试试。

所以,我的想法是,让所有的东西和监控一起运行在Docker容器上,并增加一个容器的数据卷让logstash从中读取使用的文件。 代码在Githb repo上。

创建映像

作为关于Docker的第一个文章,我将会解释下如何去创建映像。映像早由一个基本的ubuntu创建的,你所要做的基本就是创建一个Dockfile,链接在这里.

只需执行下面的命令来构建容器:

<span></span><span>  docker build -t elk:latest .</span>

这将创建一个本地可执行的映像。通过下面命令可以查看所有映像:

<span></span><span>  docker images</span>
<span><span>REPOSITORY  TAG  IMAGE ID  CREATED  VIRTUAL SIZE</span></span>
<span><span>elk  latest  28bf7af29dc1  55 seconds ago  575.7 MB</span></span>

运行映像

映像构建后就可以执行它:

  docker run -d -p 5000:5601 --name elk -v /path/access-logs:/var/log/access elk

这将映射容器的5601(kibana)端口到你本地5000端口,并添加你本的/path/acces-logs到容器中。这个路径就是你想要记录的访问日志的路径。

TODO,后续工作

映像,分离的容器,将映像推送到docker hub.

相关推荐

三种自建KMS激活系统自动激活windows方法

第一种:在windows服务器上搭建主要针对vol版本(win7、win10、win20xx、win2012等等)平台:我自己搭建的windows虚拟机,windows2016的操作系统软件:...

重装系统被收98元?避开Windows付费陷阱的实用指南

重装系统被收98元?避开Windows付费陷阱的实用指南有网友反映,在重装Windows系统后,屏幕突然弹出“激活系统需支付98元服务费”的提示,疑惑自己是不是遭遇了付费陷阱。事实上,微软官方的Wi...

Windows Server2012远程桌面服务配置和授权激活

安装:注意:安装完毕之后需手动重启一下计算机配置终端服务管理工具---远程桌面服务---RD授权诊断程序,查看当前服务器有没有授权授权:运行—>gpedit.msc->计算机配置---管理...

新书速览|Windows Server 2022 系统与网站配置实战

讲述桌面体验、ServerCore/NanoServer,容器与云系统的配置1本书内容《WindowsServer2022系统与网站配置实战》秉持作者一贯理论兼具实践的写作风格,以新版的Wi...

Windows激活全攻略:KMS神钥与专业工具的完美结合!

对于许多Windows用户来说,系统的激活是一个必经的过程。虽然Windows操作系统在未经激活的状态下也可以使用一段时间,但长期来看,未激活的系统会限制某些功能并频繁提示用户激活。以下是两种流行的激...

微软Win9全新激活技术曝光(微软系统激活有什么用)

2014-07-0905:46:00作者:徐日俄罗斯Wzor日前披露了更多关于Windows9的最新消息,据悉,Windows9将会在今年秋季亮相,其宣传口号是“想要开始按钮和开始菜单?如你所...

快速激活Windows 10/11:CMD命令详细教程

#记录我的2024#激活Windows操作系统是确保系统功能和安全更新正常运行的重要步骤。本文将为您分享如何使用命令提示符(CMD)在Windows10和Windows11上进行激活的详细步骤。...

Wndows 2019 RDS应用发布部署(rds的安装和应用程序的发布)

安装前的准备1、需要提供服务器作为应用中心,应用中心的推荐配置如下表所示。规格建议1-10人11-20人21-50人51-100人100+人CPU4核8核16核内存8GB16GB32GB64GB系统盘...

解决 Windows 系统激活难题(如何解决windows激活问题)

今天,一位朋友给我说,他手头有三台电脑,均同时弹出系统未激活的提示。他对此毫无头绪,便急忙将电脑上出现的激活提示信息一股脑发给了我。我看到其中一台显示的是“Windows10企业版LTSC尚...

自建KMS激活服务器(自建kms激活服务器的风险)

自建KMS激活服务器Win10和office安装后,都需要激活才可以使用,一般可以输入购买的MAK激活码进行在线激活,也可以通过KMS激活,网上也有很多激活工具,但这些工具一般都含有病毒或木马程序,容...

30秒免费激活windows和office亲测有效!

“第三方工具有病毒?”“KMS服务器激活总失效?”今天给大家分享一个开源激活工具——MicrosoftActivationScripts(MAS),无需密钥、不装软件,30秒永久激活Window...

「操作系统」Windows 10 LTSC 2019 企业版C大集成更新版

Windows10LTSC企业版CHIANNET集成更新优化整合多镜像版,CHIANNET,是USBOS超级PE维护盘工具箱作者,长久以来一直默默的更新着,USBOSPE软件,电脑城装机及...

一文看懂Windows激活:自查方法+授权类型科普(Win7/Win10通用)

一、如何判断Windows是否永久激活?无论是Win7还是Win10,均可通过以下方法快速验证:命令提示符法(通用):按下Win+R,输入slmgr.vbs/xpr并按回车键运行即可查看是否...

部分Windows Server 2019/2022用户反馈无法运行微软Teams应用

IT之家7月2日消息,科技媒体borncity今天(7月2日)发布博文,报道称在多个WindowsServer版本上,MicrosoftTeams应用近期出现了运行故障。用...

这种Windows激活方式已有20年...(windows现在激活)

2006年微软正式发布WindowsVista,随之而来引入了一项新的激活机制「OEM激活」,这项机制在Vista和Win7上最为流行。其实WindowsServer自2008开始至2025版本一...

取消回复欢迎 发表评论: