ELKStack 基础介绍之 Logstash [三]

2023年 5月 4日 28.7k 0

Logstash是一个完全开源的工具,他可以对你的日志进行收集、分析,并将其存储供以后使用(如,搜索),您可以使用它。说到搜索,logstash带有一个web界面,搜索和展示所有日志。

ELKStack 基础介绍之 Logstash [三]
ELKStack

一、Logstash介绍

Logstash是一个完全开源的工具,他可以对你的日志进行收集、分析,并将其存储供以后使用(如,搜索),您可以使用它。说到搜索,logstash带有一个web界面,搜索和展示所有日志。
kibana也是一个开源和免费的工具,他可以帮助您汇总、分析和搜索重要数据日志并提供友好的web界面。他可以为 Logstash 和 ElasticSearch 提供的日志分析的 Web 界面。
提示: logstash与es没有任何关系
image_1bdc0c7fn1ir6179p18n01bffgs19.png-69.5kB
ELK几个概念
INPUT
OUTPUT
首先LogStash是收集日志,它收集完日志就需要把日志存储下来,所以我们可以用运输者的身份来表示LogStash(INPUT or OUTPUT)LogStash可以在日志发送之前做一个过滤(OUTPUT之前)

二、LogStash部署与配置

和Elasticsearch一样,在开始部署LogStash之前也需要你的环境中正确的安装的JDK。可以下载安装Oracle的JDK或者使用 yum安装openjdk。
LogStash三大功能

INPUT  进
FILTER  (支持过滤的功能)
OUTPUT 出

image_1bdc0cn4v14l1gcj19mq10ncfdtm.png-59.6kB
1.设置时区

[root@abcdocker ~]# yum install ntpdate –y
[root@abcdocker ~]# ntpdate time1.aliyun.com
[root@abcdocker ~]# timedatectl set-timezone Asia/Shanghai  #设置时区
另一种设置时区方法
[root@abcdocker ~]# cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

像我这样高逼格的玩家一般都把这种命令用一条显示

[root@abcdocker ~]# yum install ntpdate -y && ntpdate time1.aliyun.com &&  timedatectl set-timezone Asia/Shanghai

2.安装JDK

[root@abcdocker ~]# yum install -y java
[root@abcdocker ~]# java -version
openjdk version "1.8.0_65"
OpenJDK Runtime Environment (build 1.8.0_65-b17)
OpenJDK 64-Bit Server VM (build 25.65-b01, mixed mode)

3.YUM部署LogStash
下载并安装GPG key

[root@abcdocker ~]# rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

我们可以查询是否导入成功,可能有很多key

[root@abcdocker ~]# rpm -qa gpg-pubkey*
gpg-pubkey-f4a80eb5-53a7ff4b
gpg-pubkey-d88e42b4-52371eca

4.添加yum仓库

[root@abcdocker ~]# cat /etc/yum.repos.d/logstash.repo
[logstash-2.3]
name=Logstash repository for 2.3.x packages
baseurl=https://packages.elastic.co/logstash/2.3/centos
gpgcheck=1
gpgkey=https://packages.elastic.co/GPG-KEY-elasticsearch
enabled=1

5.安装logstash

[root@abcdocker ~]# yum install -y logstash

[root@abcdocker  ~]# rpm -qa |grep logst
logstash-2.3.4-1.noarch

#请在2台服务器都进行安装

6. 配置logstash
提示:logstash实现input和ouput主要是依赖于logstash有需多的插件

[root@abcdocker ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{} }'
OpenJDK 64-Bit Server VM warning: If the number of processors is expected to increase from one, then you should configure the number of parallel GC threads appropriately using -XX:ParallelGCThreads=N
Settings: Default pipeline workers: 1
Pipeline main started
www.abcdocker.com
2017-03-12T04:13:31.347Z abcdocker.com www.abcdocker.com


input插件stdin(标准输入)
output插件 stdout(标准输出)
/opt/logstash/bin/logstash 前台启动
提示:标准输入和标准输出的意思就是我们输入什么就会输出什么


输入:www.abcdocker.com
输入:时间戳、节点名称、内容

使用codec rubydebug功能

[root@abcdocker ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug} }'
OpenJDK 64-Bit Server VM warning: If the number of processors is expected to increase from one, then you should configure the number of parallel GC threads appropriately using -XX:ParallelGCThreads=N
Settings: Default pipeline workers: 1
Pipeline main started
www.abcdocker.com

{
       "message" => "www.abcdocker.com",   #内容
      "@version" => "1",                    #版本
    "@timestamp" => "2017-03-12T04:18:06.702Z", #时间戳
          "host" => "abcdocker.com"         #主机
}

=> 代表等号  
这样就可以让我们的输出内容显示的美观一些

7. 将日志写入es里面
image_1bdc0d7uji05126f1f9g142210ml13.png-60kB
官方文档地址:https://www.elastic.co/guide/en/logstash/current/first-event.html
INPUT插件:https://www.elastic.co/guide/en/logstash/current/input-plugins.html
OUTPUT插件:https://www.elastic.co/guide/en/logstash/current/output-plugins.html
我们将日志写入到es需要查看output插件,同样我们也可以INPUT es日志,OUTPUT es日志
写入到elasticsearch:
https://www.elastic.co/guide/en/logstash/current/plugins-outputs-elasticsearch.html

配置主机及索引(生产场景都是写入配置文件中)

[root@abcdocker ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.56.11:9200"] index => "logstash-%{+YYYY.MM.dd}" } }'

#使用output插件将数据写入es
# hosts 定义主机名称
# index 定义日期格式

[root@abcdocker ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.56.11:9200"] index => "logstash-%{+YYYY.MM.dd}" } }'
OpenJDK 64-Bit Server VM warning: If the number of processors is expected to increase from one, then you should configure the number of parallel GC threads appropriately using -XX:ParallelGCThreads=N
Settings: Default pipeline workers: 1
Pipeline main started



www.abcdocker.com --- time

这时候信息已经不进行输出而是写入到ES中,我们可以到es上进行查看
访问地址: http://ip:9200/_plugin/head/
ES搭建文档:https://www.abcdocker.com/abcdocker/2234
image_1bdc0dl3i122d68p1h1tjcb12dm1g.png-126.4kB
image_1bdc0e2c8ms819698vq1vm113a01t.png-167.2kB
这样我们就可以看到我们输出的www.abcdocker.com ---time的信息,以及日志的时间等。我们写入完之后直接刷新就可以显示。
我们可以将信息打印到es里面,又进行输出

[root@abcdocker ~]# /opt/logstash/bin/logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug } elasticsearch { hosts => ["192.168.56.11:9200"] index => "logstash-%{+YYYY.MM.dd}" } }'
OpenJDK 64-Bit Server VM warning: If the number of processors is expected to increase from one, then you should configure the number of parallel GC threads appropriately using -XX:ParallelGCThreads=N
Settings: Default pipeline workers: 1
Pipeline main started
123456789000
3{
       "message" => "123456789000",
      "@version" => "1",
    "@timestamp" => "2017-04-05T08:19:52.469Z",
          "host" => "abcdocker.com"
}
33333333333
{
       "message" => "333333333333",
      "@version" => "1",
    "@timestamp" => "2017-04-05T08:19:56.412Z",
          "host" => "abcdocker.com"
}
111111111
{
       "message" => "111111111",
      "@version" => "1",
    "@timestamp" => "2017-04-05T08:19:59.885Z",
          "host" => "abcdocker.com"
}

image_1bdc0ejp91gbn1kll10rd106e1k5b2a.png-208.4kB
提示:我们学习logstash需要灵活的运用本身的插件,来实现我们想要的任何的功能
我们现在把logstash放在前台运行,是为了更好的学习插件。现在我们需要把logstash运行在后台
提示:在收集的时候所有的机器都需要安装一个logstash(通过网络可以不需要)因为在INPUT和OUTPUT插件有一个通过http的插件,这样可以通过网络进行传输。如果是文件我所有的节点都需要安装一个logstash
yum安装的目录需要将配置文件放在/etc/logstash/conf.d目录下,因为脚本会在这个目录进行读取

[root@abcdocker ~]# vim /etc/init.d/logstash

image_1bdc0euk318mnbi419g51g70jfb2n.png-145.1kB
脚本启动的时候会去这个目录下找配置文件
编写配置文件
我们进入/etc/logstash/conf.d下进行编辑配置文件

[root@abcdocker ~]# cd /etc/logstash/conf.d/
[root@abcdocker conf.d]# cat demo.conf 
input{
    stdin{}
}


filter{
}


output{
    elasticsearch {
        hosts => ["192.168.56.11:9200"]
        index => "logstash-%{+YYYY.MM.dd}"
    }
    stdout{
        codec => rubydebug
    }
}

#配置文件的写法和命令行的区别并不大

配置文件小提示:

  1. 配置文件的语法需要包含INPUT or OUTPUT,其中filter可以没有。
  2. INPUT和OUTPUT中的{}不可以搞错,其中INPUT存放INPUT插件,OUTPUT存放OUTPUT插件
  3. (其中插件也需要有{花括号}) “=>”代表等于,写一个数组需要使用[中括号]多个可以使用逗号分隔。
  4. 字符串需要使用“双引号”
  5. #号代表注释
  6. 日志中信息都是一行一行的,在logstash中叫做事件(因为logstash可以将多行进行合并)
  7. 流程: 事件 --> input --> codec --> filter --> codec --> output

指定配置文件启动

[root@abcdocker ~]# /opt/logstash/bin/logstash -f /etc/logstash/conf.d/demo.conf 
OpenJDK 64-Bit Server VM warning: If the number of processors is expected to increase from one, then you should configure the number of parallel GC threads appropriately using -XX:ParallelGCThreads=N
Settings: Default pipeline workers: 1
Pipeline main started
wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
{
       "message" => "wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww",
      "@version" => "1",
    "@timestamp" => "2017-04-05T09:36:19.770Z",
          "host" => "abcdocker.com"
}
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
{
       "message" => "aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa",
      "@version" => "1",
    "@timestamp" => "2017-04-05T09:36:23.651Z",
          "host" => "abcdocker.com"
}
ccccccccccccccccccccccccccccccccccccccc
{
       "message" => "ccccccccccccccccccccccccccccccccccccccc",
      "@version" => "1",
    "@timestamp" => "2017-04-05T09:36:27.317Z",
          "host" => "abcdocker.com"
}

我们在查看head插件
image_1bdc0fe481qdg5a31d8k14mvht334.png-292.3kB
这时候我们写的配置文件已经可以实现简单的输出和将数据写入ES中

三、插件介绍

INPUT插件介绍

file插件地址:https://www.elastic.co/guide/en/logstash/current/plugins-inputs-file.html
1.收集mesassage错误日志

[root@abcdocker ~]# vim /etc/logstash/conf.d/file.conf
input {
    file{
            path => ["/var/log/messages","/var/log/secure"]
        type => "system-log"
        start_position => "beginning"
}

}


filter{
}

output{
    elasticsearch {
        hosts => ["192.168.56.11:9200"]
        index => "system-log-%{+YYYY.MM}"
    }
}


path         定义日志路径
start_position 记录日志从头读取数据还是从尾读取数据
type        可以设置类型,进行if判断(简单来说可以将日志进行分类,错误放在一起,正常放在一起)

提示:关于hosts后面端口可写可不写,不写默认是9200



[root@abcdocker ~]# /opt/logstash/bin/logstash -f /etc/logstash/conf.d/file.conf
启动

我们可以访问head进行查看
image_1bdc0g3391j6q9n1hvuorp2o33h.png-312.1kB
image_1bdc0gm1tif5oeggh21kc4tqm3u.png-354.4kB
基础介绍完毕

相关文章:

  1. Kubernetes 1.14 二进制集群安装
  2. ELK 二进制安装并收集nginx日志
  3. Kubenetes 1.13.5 集群二进制安装
  4. ELKStack 实战之 Elasticsearch [一]

相关文章

KubeSphere 部署向量数据库 Milvus 实战指南
探索 Kubernetes 持久化存储之 Longhorn 初窥门径
征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
那些年在 Terraform 上吃到的糖和踩过的坑
无需 Kubernetes 测试 Kubernetes 网络实现
Kubernetes v1.31 中的移除和主要变更

发布评论