前言

Prometheus <https://github.com/prometheus/prometheus>是CNCF的一个开源项目,Google
BorgMon监控系统的开源版本,是一个系统和服务的监控系统。周期性采集metrics指标,匹配规则和展示结果,以及触发某些条件的告警发送。

 

特点

Prometheus主要区别于其他监控系统的特点是:

* 多维度数据模型(时序数据是由指标名字和kv结构的维度定义)
* 灵活的查询语言(PromQL)
* 不依赖分布式存储。每个server是一个自治的节点。
* 通过HTTP拉取收集时序数据,同时提供push gateway供用户主动推送数据,主要用于短生命周期的job。
* 通过静态配置或服务发现来发现目标对象
* 支持多种多样的出图和展示方式,例如自带的Web UI和Grafana等。
* 支持水平扩容
架构



 

组件

Prometheus生态系统由多个组件组成,其中大部分是可选的组件。

* Prometheus Server 负责收集和存储时序数据。提供PromQL查询语言的支持。
* Pushgateway 支持短生命周期的任务推送结果数据。
* Exporter 采集组件的总称,是Prometheus生态系统中的Agent。
* Altermanager 处理告警。
* 客户端SDK 官方提供的SDK支持的语言由go,java,python等多种语言。
绝大部分Prometheus的组件都是用golang编写,使得Prometheus 组件容易编译和部署。(二进制没有依赖)

 

工作流程

从架构图中可以看出,Prometheus Server
周期性的拉取从配置文件或者服务发现获取到的目标数据,每个目标需要通过HTTP接口暴露数据。Prometheus
Server通过一定的规则汇总和记录时序数据到本地数据库。将符合检测条件的告警数据推送给Altermanager,Altermanager通过配置的通知方式发送告警。Web
UI 或者Grafana通过PromQL查询Prometheus Server中的数据绘图展示。

 

适用的场景


Prometheus在记录纯数字的时序数据方面表现得非常好。既适用于机器的性能数据,也适用于服务的监控数据。对于微服务,Prometheus的多维度收集和查询语言也是非常强大。

 

不适用的场景

Promethus的价值在于它的可靠性。Prometheus不适用于对统计或分析数据100%准确要求的场景。

 

部署实战

下面我会通过Docker Compose的方式部署整个Prometheus监控系统和Grafana展示数据。如果对Docker
Compose还不熟悉的朋友,可以先查看我之前的介绍文章 <https://www.cnblogs.com/makelu/p/11052908.html>。

Prometheus的docker-compose.yml基于github的开源仓库
<https://github.com/vegasbrianc/prometheus>修改。docker-compose.yml内容如下:
version: '3.1' volumes: prometheus_data: {} grafana_data: {} services:
prometheus: image: prom/prometheus:v2.1.0 volumes: -
./prometheus/:/etc/prometheus/ - prometheus_data:/prometheus command: -
'--config.file=/etc/prometheus/prometheus.yml' -
'--storage.tsdb.path=/prometheus' -
'--web.console.libraries=/usr/share/prometheus/console_libraries' -
'--web.console.templates=/usr/share/prometheus/consoles' ports: - 9090:9090
restart: always node-exporter: image: prom/node-exporter volumes: -
/proc:/host/proc:ro - /sys:/host/sys:ro - /:/rootfs:ro command: -
'--path.procfs=/host/proc' - '--path.sysfs=/host/sys' -
--collector.filesystem.ignored-mount-points -
"^/(sys|proc|dev|host|etc|rootfs/var/lib/docker/containers|rootfs/var/lib/docker/overlay2|rootfs/run/docker/netns|rootfs/var/lib/docker/aufs)($$|/)"
ports: -9100:9100 restart: always alertmanager: image: prom/alertmanager
volumes: - ./alertmanager/:/etc/alertmanager/ ports: -9093:9093 restart: always
command: -'--config.file=/etc/alertmanager/config.yml' -
'--storage.path=/alertmanager' grafana: image: grafana/grafana user: "104"
ports: -3000:3000 depends_on: - prometheus volumes: -
grafana_data:/var/lib/grafana -
./grafana/provisioning/:/etc/grafana/provisioning/ env_file: -
./grafana/config.monitoring restart: always
从上面的docker-compose.yml可以看出,将通过Docker Compose部署Prometheus
Server,Altermanager,Grafana,和node exporter。其中node
exporter负责采集机器的基础性能数据,例如CPU,MEM,DISK等等,通过暴露HTTP接口供Prometheus
Server拉取数据做数据存储和清洗。Grafana负责数据的展示。Prometheus通过配置文件静态配置获取node exporter的地址:
1 $ cat prometheus.yml 2 # my global config 3 global: 4 scrape_interval:
15s # By default, scrape targets every15 seconds. 5 evaluation_interval: 15s #
By default, scrape targets every15 seconds. 6 # scrape_timeout is set to the
global default (10s). 7 8 # Attach these labels to any time series or alerts
when communicating with 9 # external systems (federation, remote storage,
Alertmanager).10 external_labels: 11 monitor: 'my-project' 12 13 # Load and
evaluate rulesin this file every 'evaluation_interval' seconds. 14 rule_files:
15 - 'alert.rules' 16 # - "first.rules" 17 # - "second.rules" 18 19 # alert 20
alerting:21 alertmanagers: 22 - scheme: http 23 static_configs: 24 - targets:
25 - "alertmanager:9093" 26 27 # A scrape configuration containing exactly one
endpoint to scrape:28 # Here it's Prometheus itself. 29 scrape_configs: 30 #
The job name is added as a label `job=<job_name>` to any timeseries scraped
from this config.31 32 - job_name: 'prometheus' 33 34 # Override the global
default and scrape targets from this job every5 seconds. 35 scrape_interval: 5s
36 37 static_configs: 38 - targets: ['localhost:9090'] 39 40 - job_name: '
node-exporter' 41 42 # Override the global default and scrape targets from this
job every5 seconds. 43 scrape_interval: 5s 44 static_configs: 45 - targets: ['
node-exporter:9100']
其中40-45行是node-exporter的抓取地址和周期配置。因为Docker
Compose会自动做服务地址解析,所以这里可以直接用node-exporter:9100作为地址。

通过Prometheus 9090端口可以查看到要采集的目标列表信息:



通过Grafana可以查看到node exporter采集上来的数据展示,其中Grafana用的看板模板是
https://grafana.com/dashboards/8919 <https://grafana.com/dashboards/8919>



 

总结

文章开始分析了Prometheus开源监控系统的整体架构和特点,然后通过Docker
Compose演示了整个系统的搭建。下一篇博客我将演示用Prometheus提供的Golang SDK从头开始写一个Expoter,敬请期待。

 

参考

https://prometheus.io/docs/introduction/overview/
<https://prometheus.io/docs/introduction/overview/> 

友情链接
ioDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信