Prometheus 持久化安装

2023年 5月 4日 58.9k 0

在早期的版本中 Kubernetes 提供了 heapster、influxDB、grafana 的组合来监控系统,所以我们可以在 Dashboard 中看到 heapster 提供的一些图表信息,在后续的版本中会陆续移除掉 heapster,现在更加流行的监控工具是 prometheus,prometheus 是 Google 内部监控报警系统的开源版本,是 Google SRE 思想在其内部不断完善的产物,它的存在是为了更快和高效的发现问题,快速的接入速度,简单灵活的配置都很好的解决了这一切,而且是已经毕业的 CNCF 项目。
Prometheus 持久化安装
Prometheus
更新时间2019年06月17日

Prometheus 原理介绍

新闻联播老司机

  • 19年6月17日
  • 喜欢:0
  • 浏览:6.4k
  • prometheus的方式有很多,为了兼容k8s环境,我们将prometheus搭建在k8s里,除了使用docker镜像的方式安装,还可以使用二进制的方式进行安装,支持mac、Linux、windows
    二进制下载地址:https://prometheus.io/download 下
    我们prometheus采用nfs挂载方式来存储数据,同时使用configMap管理配置文件。并且我们将所有的prometheus存储在kube-system

    #建议将所有的prometheus yaml文件存在一块
    mkdir /opt/prometheus -p && cd /opt/prometheus
    
    #生成配置文件
    
    cat >> prometheus.configmap.yaml <<EOF
    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: prometheus-config
      namespace: kube-system
    data:
      prometheus.yml: |
        global:
          scrape_interval: 15s
          scrape_timeout: 15s
        scrape_configs:
        - job_name: 'prometheus'
          static_configs:
          - targets: ['localhost:9090']
    EOF
    
    # 配置文件解释(这里的configmap实际上就是prometheus的配置)
    上面包含了3个模块global、rule_files和scrape_configs
    
    其中global模块控制Prometheus Server的全局配置
    scrape_interval:表示prometheus抓取指标数据的频率,默认是15s,我们可以覆盖这个值
    evaluation_interval:用来控制评估规则的频率,prometheus使用规则产生新的时间序列数据或者产生警报
    
    rule_files模块制定了规则所在的位置,prometheus可以根据这个配置加载规则,用于生产新的时间序列数据或者报警信息,当前我们没有配置任何规则,后期会添加
    
    scrape_configs用于控制prometheus监控哪些资源。由于prometheus通过http的方式来暴露它本身的监控数据,prometheus也能够监控本身的健康情况。在默认的配置有一个单独的job,叫做prometheus,它采集prometheus服务本身的时间序列数据。这个job包含了一个单独的、静态配置的目标;监听localhost上的9090端口。
    prometheus默认会通过目标的/metrics路径采集metrics。所以,默认的job通过URL:http://localhost:9090/metrics采集metrics。收集到时间序列包含prometheus服务本身的状态和性能。如果我们还有其他的资源需要监控,可以直接配置在该模块下即可
    

    我们这里暂时只配置了对 prometheus 的监控,然后创建该资源对象:

    [root@abcdocker prometheus]# kubectl create -f prometheus.configmap.yaml
    configmap/prometheus-config created
    

    创建完毕后,如果我们不放心可以手动的检查一遍

    [root@abcdocker prometheus]# kubectl get configmaps -n kube-system |grep prometheus
    prometheus-config                    1      2m23s
    

    配置文件创建完成,如果以后我们有新的资源需要被监控,我们只需要将ConfigMap对象更新即可,现在我们开始创建prometheus的Pod资源

    cat >>prometheus.deploy.yaml <<EOF
    apiVersion: extensions/v1beta1
    kind: Deployment
    metadata:
      name: prometheus
      namespace: kube-system
      labels:
        app: prometheus
    spec:
      template:
        metadata:
          labels:
            app: prometheus
        spec:
          serviceAccountName: prometheus
          containers:
          - image: prom/prometheus:v2.4.3
            name: prometheus
            command:
            - "/bin/prometheus"
            args:
            - "--config.file=/etc/prometheus/prometheus.yml"
            - "--storage.tsdb.path=/prometheus"
            - "--storage.tsdb.retention=30d"
            - "--web.enable-admin-api"  # 控制对admin HTTP API的访问,其中包括删除时间序列等功能
            - "--web.enable-lifecycle"  # 支持热更新,直接执行localhost:9090/-/reload立即生效
            ports:
            - containerPort: 9090
              protocol: TCP
              name: http
            volumeMounts:
            - mountPath: "/prometheus"
              subPath: prometheus
              name: data
            - mountPath: "/etc/prometheus"
              name: config-volume
            resources:
              requests:
                cpu: 100m
                memory: 512Mi
              limits:
                cpu: 100m
                memory: 512Mi
          securityContext:
            runAsUser: 0
          volumes:
          - name: data
            persistentVolumeClaim:
              claimName: prometheus
          - configMap:
              name: prometheus-config
            name: config-volume
    EOF
    

    这里稍微讲解一下配置参数
    我们在启动程序的时候,除了指定prometheus.yaml(configmap)以外,还通过storage.tsdb.path指定了TSDB数据的存储路径、通过storage.tsdb.rentention设置了保留多长时间的数据,还有下面的web.enable-admin-api参数可以用来开启对admin api的访问权限,参数web.enable-lifecyle用来开启支持热更新,有了这个参数之后,prometheus.yaml(configmap)文件只要更新了,通过执行localhost:9090/-/reload就会立即生效
    我们添加了一行securityContext,,其中runAsUser设置为0,这是因为prometheus运行过程中使用的用户是nobody,如果不配置可能会出现权限问题
    NFS搭建步骤,步骤简单不多说,不会的百度

    for i in 10.4.82.138 10.4.82.139 10.4.82.140 10.4.82.142;do ssh root@$i "yum install nfs-utils rpcbind -y";done
    接着我们在任意一台集群上搭建nfs,其他的服务器主要是挂载
    
    我这里使用10.4.82.138
    
    NFS服务器操作如下
    mkdir -p /data/k8s 
    systemctl start rpcbind
    systemctl enable rpcbind
    systemctl enable nfs
    echo "/data/k8s  10.4.82.0/24(rw,no_root_squash,sync)" >>/etc/exports
    #IP改成网段
    
    
    其他k8s节点直接启动rpcbind并且挂载目录就可以
    systemctl start rpcbind
    systemctl enable rpcbind
    mkdir /data/k8s -p
    mount -t nfs 10.4.82.138:/data/k8s /data/k8s
    
    #创建完成你们自己测一下就可以了
    

    prometheus.yaml文件对应的ConfigMap对象通过volume的形式挂载进Pod,这样ConfigMap更新后,对应的pod也会热更新,然后我们在执行上面的reload请求,prometheus配置就生效了。除此之外,对了将时间数据进行持久化,我们将数据目录和一个pvc对象进行了绑定,所以我们需要提前创建pvc对象

    cat >>prometheus-volume.yaml <<EOF
    apiVersion: v1
    kind: PersistentVolume
    metadata:
      name: prometheus
    spec:
      capacity:
        storage: 10Gi
      accessModes:
      - ReadWriteOnce
      persistentVolumeReclaimPolicy: Recycle
      nfs:
        server: 10.4.82.138
        path: /data/k8s
    
    ---
    apiVersion: v1
    kind: PersistentVolumeClaim
    metadata:
      name: prometheus
      namespace: kube-system
    spec:
      accessModes:
      - ReadWriteOnce
      resources:
        requests:
          storage: 10Gi
    EOF
    
    #nfs 
    server nfs服务器ip
    path  挂载点,提前挂在好,确保可以写入
    

    关于NFS配置挂载目录的之类的就不介绍了,注意好权限,前期允许所有用户创建文件
    这里通过一个简单的NFS作为存储后端创建一个pv & pvc

    [root@abcdocker prometheus]# kubectl create -f prometheus-volume.yaml
    persistentvolume/prometheus created
    persistentvolumeclaim/prometheus created
    

    创建完,我们可以进行检查一下

    [root@abcdocker prometheus]# kubectl get pvc --all-namespaces
    NAMESPACE     NAME         STATUS   VOLUME       CAPACITY   ACCESS MODES   STORAGECLASS   AGE
    kube-system   prometheus   Bound    prometheus   10Gi       RWO                           47s
    [root@abcdocker prometheus]# kubectl get pv prometheus
    NAME         CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                    STORAGECLASS   REASON   AGE
    prometheus   10Gi       RWO            Recycle          Bound    kube-system/prometheus                           51s
    

    这里稍微提示一下,我们创建的pv和pvc大小都是10g,只是测试存储为10g。线上可以修改为200或者更多,一般prometheus数据保留15-30天就可以,如果数据量过大建议使用TSBD分布式存储
    我们这里还需要创建rbac认证,因为prometheus需要访问k8s集群内部的资源

    cat >>prometheus-rbac.yaml <<EOF
    apiVersion: v1
    kind: ServiceAccount
    metadata:
      name: prometheus
      namespace: kube-system
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: ClusterRole
    metadata:
      name: prometheus
    rules:
    - apiGroups:
      - ""
      resources:
      - nodes
      - services
      - endpoints
      - pods
      - nodes/proxy
      verbs:
      - get
      - list
      - watch
    - apiGroups:
      - ""
      resources:
      - configmaps
      - nodes/metrics
      verbs:
      - get
    - nonResourceURLs:
      - /metrics
      verbs:
      - get
    ---
    apiVersion: rbac.authorization.k8s.io/v1beta1
    kind: ClusterRoleBinding
    metadata:
      name: prometheus
    roleRef:
      apiGroup: rbac.authorization.k8s.io
      kind: ClusterRole
      name: prometheus
    subjects:
    - kind: ServiceAccount
      name: prometheus
      namespace: kube-system
    EOF
    

    由于我们要获取的资源,在每一个namespace下面都有可能存在,所以我们这里使用的是ClusterRole的资源对象,nonResourceURLs是用来对非资源型metrics进行操作的权限声明

    创建rbac文件
    [root@abcdocker prometheus]# kubectl create -f prometheus-rbac.yaml
    serviceaccount/prometheus created
    clusterrole.rbac.authorization.k8s.io/prometheus created
    clusterrolebinding.rbac.authorization.k8s.io/prometheus created
    

    我们将ConfigMap volume rbac 创建完毕后,就可以创建prometheus.deploy.yaml了,运行prometheus服务

    [root@abcdocker prometheus]# kubectl create -f prometheus.deploy.yaml
    deployment.extensions/prometheus created
    
    [root@abcdocker prometheus]# kubectl get pod -n kube-system |grep prometheus
    prometheus-dd856f675-jn9v2              1/1     Running            0          15s
    
    #这里1/1 状态为Running即可
    

    现在我们prometheus服务状态是已经正常了,但是我们在浏览器是无法访问prometheus的 webui服务。那么我们还需要创建一个service

    cat >>prometeheus-svc.yaml <<EOF
    apiVersion: v1
    kind: Service
    metadata:
      name: prometheus
      namespace: kube-system
      labels:
        app: prometheus
    spec:
      selector:
        app: prometheus
      type: NodePort
      ports:
        - name: web
          port: 9090
          targetPort: http
    EOF
    

    为了方便测试,我这里使用的是NodePort,我们也可以创建一个Ingress对象使用域名访问

    [root@abcdocker prometheus]# kubectl create -f prometeheus-svc.yaml
    service/prometheus created
    
    [root@abcdocker prometheus]# kubectl get svc -n kube-system |grep prometheus
    prometheus             NodePort    10.101.143.162           9090:32331/TCP           18s
    

    这里定义的端口为32331,我们直接在浏览器上任意节点输入ip+端口即可
    image_1ddieti6qjeg12vs8tg17131cmq9.png-77kB
    image_1ddif6qk01m5jnd61n7hddv13mqm.png-177.3kB
    我们可以查看一下当前监控规则
    默认prometheus会监控自己
    Status-->Targets
    image_1ddif8j0lr77nr117t412llgtg13.png-80.2kB
    我们查看一下数据,是否收集到数据
    image_1ddifebcaab7cv710l615cq1jka1g.png-98.8kB
    比如我们这里就选择scrape_duration_seconds这个指标,然后点击Execute,如果这个时候没有查询到任何数据,我们可以切换到Graph这个 tab 下面重新选择下时间,选择到当前的时间点,重新执行,就可以看到类似于下面的图表数据了:
    一定要设置好时间,否则不出图
    image_1ddifhld42a618pv1a0c1s3ufmd1t.png-171.3kB

    相关文章:

    1. Kubernetes 1.14 二进制集群安装
    2. Kuerbernetes 1.11 集群二进制安装
    3. Kubenetes 1.13.5 集群二进制安装
    4. CentOS 7 ETCD集群配置大全

    相关文章

    对接alertmanager创建钉钉卡片(1)
    手把手教你搭建OpenFalcon监控系统
    无需任何魔法即可使用 Ansible 的神奇变量“hostvars”
    openobseve HA本地单集群模式
    基于k8s上loggie/vector/openobserve日志收集
    openobseve单节点和查询语法

    发布评论