在 Kubernetes 集群上部署 Elasticsearch 栈
如果采用 Logstash 集中接收 Filebeat 的日志输入,容易造成单点瓶颈;如果采用 Kafka 接收 Filebeat 的日志输入,日志的时效性又得不到保障。这里直接将 Filebeat 采集的日志直接输出到 Elasticsearch。
1. 准备工作
- 节点规划
|
|
- 生成秘钥
|
|
- 创建 Kubernetes Secret 凭证
|
|
- 创建登录用户及密码
|
|
- 添加 Elastic Helm Charts 仓库
|
|
2. 安装 Elasticsearch
- 创建一个 values.yaml 文件,配置安装参数
|
|
|
|
- 开始安装组件
|
|
3. 安装 Kibana
- 创建一个 values.yaml 文件,配置安装参数
|
|
|
|
- 开始安装组件
|
|
4. 安装 Filebeat
- 创建一个 values.yaml 文件,配置安装参数
|
|
|
|
filebeat.yml
中的 filebeat.inputs
决定了 filebeat 会采集哪些日志。
- 开始安装组件
|
|
5. 查看服务验证功能
- 确保所有服务正常启动
|
|
- 查看访问的端口
|
|
- 访问 Elasticsearch