Prometheus---部署及服务发现

本文档详细介绍了在多节点环境下如何部署和配置Prometheus进行监控,包括环境准备、安装步骤、表达式浏览器的使用,以及服务发现机制。通过静态配置和动态发现(如基于文件和DNS)来管理监控目标。此外,还展示了如何使用Grafana进行数据展示。重点讲解了Prometheus的配置文件管理和服务发现机制,如基于文件的服务发现和基于Consul的动态发现,以及Grafana的部署和模板展示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


一、环境

主机名地址安装包
Prometheus服务器192.168.3.11prometheus-2.27.1.linux-amd64.tar.gz、node_exporter-1.1.2.linux-amd64.tar.gz
node1192.168.3.12node_exporter-1.1.2.linux-amd64.tar.gz
node2192.168.3.13node_exporter-1.1.2.linux-amd64.tar.gz
node3192.168.3.14node_exporter-1.1.2.linux-amd64.tar.gz

二、准备工作

#关闭防火墙及增强安全性
systemctl stop firewalld
setenforce 0

#修改主机名
hostnamectl set-hostname prometheus

#其他主机依次修改
hostnamectl set-hostname node1
hostnamectl set-hostname node2
hostnamectl set-hostname node3

#所有主机做时间同步
ntpdate ntp1.aliyun.com

三、安装

-----------------------------Prometheus服务器操作------------------------------------
cd /opt
wget httpd://112.124.46.81/prometheus-2.27.1.linux-amd64.tar.gz
wget httpd://112.124.46.81/node_exporter-1.1.2.linux-amd64.tar.gz

tar zxvf prometheus-2.27.1.linux-amd64.tar.gz -C /usr/local/
cd /usr/local/prometheus-2.27.1.linux-amd64/
vim prometheus.yml			//添加节点信息
#尾部插入 
  - job_name: 'nodes'
    static_configs:
    - targets:
      - 192.168.3.11:9100
      - 192.168.3.12:9100
      - 192.168.3.13:9100
      - 192.168.3.14:9100
>>>>wq

./prometheus		//启动Prometheus
#若想加入其他节点监控端,需要先关掉服务,然后修改上面的ymlwe文件,添加节点信息,才能使新节点加入

cd /opt
tar zxvf node_exporter-1.1.2.linux-amd64.tar.gz
cd node_exporter-1.1.2.linux-amd64/
cp node_exporter /usr/local/bin/
cd /usr/local/bin/
./node_exporter			//启动节点

在这里插入图片描述

-----------------------------node1、node2、node3节点操作--------------------------------
cd /opt
tar zxvf node_exporter-1.1.2.linux-amd64.tar.gz
cd node_exporter-1.1.2.linux-amd64/
cp node_exporter /usr/local/bin/
cd /usr/local/bin/
./node_exporter			//启动节点
  • 浏览器验证 192.168.3.11:9090
    在这里插入图片描述

四、表达式浏览器使用

4.1 cpu

  • CPU使用总量
node_cpu_seconds_total

在这里插入图片描述

  • 计算过去5分钟内的CPU空闲速率
irate(node_cpu_seconds_total{mode="idle"}[5m])

#解析:
irate:速率计算函数(灵敏度非常高)
node_cpu_seconds_total:node节点CPU使用总量(指标)
mode=“idle” 空闲指标(标签)
5m:过去的5分钟内,所有CPU空闲数的样本值,每个数值做速率运算
{mode=“idle”} :整体称为标签过滤器

在这里插入图片描述
在这里插入图片描述

  • 每台主机CPU 在5分中内的平均使用率
(1- avg (irate(node_cpu_seconds_total{mode='idle'}[5m]))by (instance))* 100

#解析:
avg:平均值
avg (irate(node_cpu_seconds_total{mode=‘idle’}[5m]):可以理解为CPU空闲量的百分比
by (instance):表示的是所有节点
(1- avg (irate(node_cpu_seconds_total{mode=‘idle’}[5m]))by (instance))* 100:CPU 5分钟内的平均使用率

在这里插入图片描述

  • 查询1分钟平均负载超过主机CPU数量两倍的时间序列
node_load1 > on (instance) 2 * count (node_cpu_ceconds_total{mode='idle'}) by(instance)

4.2 内存使用率

node_memory_MemTotal_bytes
node_memory_MemFree_bytes
node_memory_Buffers_bytes
node_memory_Cached_bytes


#计算使用率
可用空间:以上后三个指标之和
己用空间:总空间减去可用空间
使用率:已用空间除以总空间

五、service discover 服务发现

1. Prometheus 服务发现

  • ① 基于文件的服务发现:
    定义一组资源“子”配置文件yaml格式里面只存方需要采集的targets信息,此种方式可以被pro动态获取到,而不需要重启
  • ② 基于DNS的服务发现:
    SRV形式
  • ③ 基于API的服务发现:
    Kubernetes、Consul、Azure、重新标记
    target重新打标
    metric重新打标
  • ④ 基于 K8S 的服务发现

2. prometheus 服务发现机制

  • ① Prometheus Server的数据抓取工作于Pull模型,因而,它必需要事先知道各 Target 的位置,然后才能从相应的Exporter或Instrumentation中抓取数据

  • ② 对于小型的系统环境来说,通过static_configs指定各Target便能解决问- 题,这也是最简单的配置方法;每个Targets用一个网络端点(ip:port)进行标识;

  • ③ 对于中大型的系统环境或具有较强动态性的云计算环境来说,静态配置显然难以适用;因此,Prometheus为此专门设计了一组服务发现机制,以便于能够基于服务注册中心(服务总线)自动发现、检测、分类可被监控的各Target,以及更新发生了变动的Target指标抓取的生命周期

  • ④ 在每个scrape_interval期间,Prometheus都会检查执行的作业(Job);这些作业首先会根据Job上指定的发现配置生成target列表,此即服务发现过程;服务发现会返回一个Target列表,其中包含一组称为元数据的标签,这些标签都以" meta_"为前缀;

  • ⑤ 服务发现还会根据目标配置来设置其它标签,这些标签带有"“前缀和后缀,b包括"scheme”、" address"和" metrics path_",分别保存有target支持使用协议(http或https,默认为
    http) 、 target的地址及指标的URI路径(默认为/metrics) ;

  • ⑥ 若URI路径中存在任何参数,则它们的前缀会设置为" param"这些目标列表和标签会返回给Prometheus,其中的一些标签也可以配置中被覆盖;

  • ⑦ 配置标签会在抓取的生命周期中被重复利用以生成其他标签,例如,指标上的instance标签的默认值就来自于address标签的值;

  • ⑧ 对于发现的各目标,Prometheus提供了可以重新标记(relabel)目标的机会,它定义在job配置段的relabel_config配置中,常用于实现如下功能

3.静态配置发现

#修改prometheus服务器上的配置为文件,指定targets的端口上面配置过
vim prometheus.yml		 						
  - job_name: 'nodes'
    static_configs:
    - targets:
      - 192.168.3.11:9100
      - 192.168.3.12:9100
      - 192.168.3.13:9100
      - 192.168.3.14:9100

4.动态发现

4.1 基于文件形式的服务发现

  • 基于文件的服务发现仅仅略优于静态配置的服务发现方式,它不依赖于任何平台或第三方服务,因而也是最为简单和通用的实现方式。

  • prometheus server 定期从文件中加载 target 信息(pro-server pull指标发现机制 -job_name 获取我要 pull 的对象target) 文件可以只用 json 和 yaml 格式,它含有定义的 target 列表,以及可选的标签信息

  • 以下第一配置,能够将 prometheus 默认的静态配置转换为基于文件的服务发现时所需的配置
    (prometheus 会周期性的读取、重载此文件中的配置,从而达到动态发现、更新的操作)

  • ①编写yml文件和yaml文件

#先把服务杀掉
netstat -anpt |grep 9090
kill -9 进程号

cd /usr/local/prometheus-2.27.1.linux-amd64/
mkdir file_sd
cd file_sd

vim prometheus.yml		//以下直接复制后,需把我的注释删掉
# my global config
global:
  evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
  # scrape_timeout is set to the global default (10s).

# Alertmanager configuration
alerting:
  alertmanagers:
  - static_configs:
    - targets:
      # - alertmanager:9093

rule_files:
  # - "first_rules.yml"
  # - "second_rules.yml"

# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
  # The job name is added as a label `job=<job_name>` to any timeseries scraped from this con
fig.  - job_name: 'prometheus'

    # metrics_path defaults to '/metrics'
    # scheme defaults to 'http'.

    file_sd_configs:				#文件服务发现配置
    - files:
      - targets/prometheus_*.yaml		#文件位置
      refresh_interval: 2m

  # All nodes						#所有节点
  - job_name: 'nodes'
    file_sd_configs:				#基于文件的发现
    - files:
      - targets/nodes_*.yaml		#文件位置
      refresh_interval: 2m

>>>>>wq


mkdir targets
cd targets
#需要添加两个 .yaml 文件
vim nodes_centos.yaml
- targets:
  - 192.168.3.11:9100
  - 192.168.3.12:9100
  - 192.168.3.13:9100
  labels:
    app: node-exporter
    job: node
>>>>>wq

vim prometheus_server.yaml
- targets:
  - 192.168.3.11:9090
  labels:
    app: prometheus
    job:  prometheus

  • ②指定配置文件启动
./prometheus --config.file=./file_sd/prometheus.yml
  • ③ 开启三个slave节点
cd /usr/local/node_exporter/
./node_exporter
  • 浏览器登陆查看
    在这里插入图片描述
  • ⑤ 重开一个server终端,添加一个节点信息,并查看这个节点信息是否加入
cd /usr/local/prometheus-2.27.1.linux-amd64/file_sd/targets/

vim nodes_centos.yaml 	#添加3.14节点
- targets:
  - 192.168.3.11:9100
  - 192.168.3.12:9100
  - 192.168.3.13:9100
  - 192.168.3.14:9100
  labels:
    app: node-exporter
    job: node
>>>>wq
  • 刷新浏览器,会发现3.14已经加入
    在这里插入图片描述

4.2 文件发现的作用

如果增加 node 或着 prometheus 服务端节点只需更改 nodes_centos.yaml prometheus_server.yaml 两个文件添加地址就行,不需要停止服务

5. 基于 DNS 自动发现

  • 基于 DNS 的服务发现针对一组 DNS 域名进行定期查询,以发现待监控的目标查询时使用的 DNS 服务器由 /etc/resolv.conf 文件指定
  • 该发现机制依赖于A、AAAA和SRv资源记录,且仅支持该类方法,尚不支持 RFC6763 中的高级 DNS 发现方式
Ps:
##SRV: SRv记录的作用是指明某域名下提供的服务。实例:
http._tcp.example.com.SRV 10 5 80. www.example.comSRv后面项目的含义:
10-优先级,类似MX记录
5-权重
80-端口
www.example.com -实际提供服务的主机名。同时SRv可以指定在端口上对应哪个service
#thprometheus 基于Dws的服务中的SRv记录,让prometheus发现指定target上对应的端口对应的是exporter或instrumentation

6. 基于 consul 发现

6.1 概述

一款基于 golana 开发的开源工具,主要面向分布式,服务化的系统提供服务注册、服务一发现和配置管理的功能提供服务注册/发现、健康检查、Key/value 存储、多数据中心和分布式一致性保证等功能

  • 原理:
    通过定义 json 文件将可以进行数据采集的服务注册到 consul 中,用于自动发现同时使用 prametheus 做为 client端获取 consul 上注册的服务,从而进行获取数据

在这里插入图片描述

6.2 部署安装

prometheus 通过 consul 自动发现主机清单配置

  • 思路:
    普罗米修斯的 prometheus-servers.json 文件中写的是它的主机信息,主机信息中写有相对应的标签tags: "prometheus",这个配置文件被 consul 所加载,加载后会显示在8500的端口上,prometheus 在 yml 文件中也定义了二个 job:"prometheus" "nodes",关联了 consul 的位置192.168.8.20:8500,Prometheus 会定期到 consul 8500 上去找标签是prometheus的节点,在8500上就可以获取主机信息,找到以后可以直接到http://192.168.8.20:9090/metrics 上收集信息,最后通过 ui 表达式浏览器显示出来

  • ① 安装consul_1.9.0版本

unzip consul_1.9.0_linux_amd64.zip -d /usr/local/bin/

在这里插入图片描述

  • ② 启动开发者模式

consul 开发者模式,可以快速开启单节点的 consul 服务,具有完整功能,方便开发测试

mkdir -pv /consul/data
mkdir /etc/consul
cd /etc/consul/

consul agent -dev -ui -data-dir=/consul/data/ \
> -config-dir=/etc/consul/ -client=0.0.0.0


#参数解析
consul agent 		#使用agent代理的方式来开启 
-dev    			#开发者模式
-ui 				#启用ui界面
-data-dir 			#数据文件的位置
-config-dir 		#consul的配置文件位置
-client 			#监听的客户端为所有
  • ③ 编辑 /etc/consul 目录下的Prometheus-servers.json 配置文件
vim /etc/consul/prometheus-servers.json

{
  "services": [
    {
      "id": "prometheus-server-node01",
      "name": "prom-server-node01",
      "address": "192.168.8.20",
      "port": 9090,
      "tags": ["prometheus"],
      "checks": [{
        "http": "http://192.168.8.20:9090/metrics",
        "interval": "5s"
      }]
    }
  ]
}

						
[root@prometheus ~]#consul reload								#刷新配置
Configuration reload triggered
[root@prometheus ~]#netstat -antp |grep consul
tcp        0      0 127.0.0.1:8300          0.0.0.0:*               LISTEN      44759/consul        
tcp        0      0 127.0.0.1:8301          0.0.0.0:*               LISTEN      44759/consul        
tcp        0      0 127.0.0.1:8302          0.0.0.0:*               LISTEN      44759/consul        
tcp        0      0 127.0.0.1:38754         127.0.0.1:8300          ESTABLISHED 44759/consul        
tcp        0      0 127.0.0.1:8300          127.0.0.1:38754         ESTABLISHED 44759/consul        
tcp6       0      0 :::8500                 :::*                    LISTEN      44759/consul        
tcp6       0      0 :::8502                 :::*                    LISTEN      44759/consul        
tcp6       0      0 :::8600                 :::*                    LISTEN      44759/consul 

在这里插入图片描述

  • ④ 先终止Prometheus服务,修改配置文件
/usr/local/prometheus 目录下
mkdir consul_sd
cd consul_sd/
把Prometheus的yml文件拖进去

在这里插入图片描述

  • ⑤ 指定配置文件位置运行Prometheus
./prometheus --config.file=./consul_sd/prometheus.yml
  • ⑥ 重载配置文件
consul reload
或
consul service register /etc/consul/prometheus-servic.json
#把配置文件移动到指定目录下并重载配置文件
mv prometheus-servers.json /etc/consul
cd -
consul reload
  • ⑦ 使用浏览器访问http://192.168.8.20:8500 查看节点是否加入进去

在这里插入图片描述

  • ⑧ 添加 node 节点信息并在浏览器中查看
cd /etc/consul
ls
nodes.json  prometheus-servers.json

vim nodes.json
consul reload

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

7. grafana 部署及模板展示

  • grafana 是一款基于 go 语言开发的通用可视化工.具,支持从不同的数据源加载并展示数据,可作为其数据源的部分储存系统如下所示:
    ① TSDB:Prometheus、 InfluxDB、OpenTSDB 和 Graphit
    ② 日志和文档存储:Loki 和 Elasitchsearch
    ③ 分布式请求跟踪:Zipkin、 Jaeger 和 Tenpo
    ④ SQL DB:Mysql、PostgresQL 和 Microsoft SQL server

  • grafana 基础默认监听于TCP协议的3000端口,支持集成其他认证服务,且能够通过 /metrics 输出内建指标

  • 支持的展示方式:
    数据源(Data Source):提供用于展示的数据的储存系统
    仪表盘(Dashboard):组织和管理数据的可视化面板
    团队和用户:提供了面向企业组织层级的管理能力

7.1 部署

  • ① 安装 grafana
yum install -y grafana-7.3.6-1.x86_64.rpm
systemctl enable grafana-server	
systemctl start grafana-server
netstat -nuptl|grep 3000
tcp6       0      0 :::3000                 :::*                    LISTEN      46154/grafana-serve 
  • ② 浏览器访问 http://192.168.8.20:3000

默认输入账号密码:admin admin

在这里插入图片描述

  • ③ 创建data sources 选择prometheus

在这里插入图片描述

在这里插入图片描述

  • ④ 定义prometheus 节点 http://192.168.8.20:9090,点击save & text

在这里插入图片描述在这里插入图片描述

  • ⑤ 选择模板
    在这里插入图片描述

模板用的是 8919

在这里插入图片描述

7.2 展示

在这里插入图片描述

在这里插入图片描述


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值