Alertmanager 安装与使用

发布于:2022-07-28 ⋅ 阅读:(407) ⋅ 点赞:(0)

一、概述

Alertmanager是一个独立的告警模块,接收Prometheus等客户端发来的警报,之后通过分组、删除重复等处理,并将它们通过路由发送给正确的接收器;告警方式可以按照不同的规则发送给不同的模块负责人,Alertmanager支持Email, Slack,等告警方式, 也可以通过webhook接入钉钉等国内IM工具。

Prometheus的警报分为两个部分。Prometheus服务器中的警报规则将警报发送到Alertmanager。该Alertmanager 然后管理这些警报,包括沉默,抑制,聚集和通过的方法,如电子邮件发出通知,对呼叫通知系统,以及即时通讯平台。

设置警报和通知的主要步骤是:

设置和配置 Alertmanager

配置Prometheus与Alertmanager对话

在Prometheus中创建警报规则

分组

分组将类似性质的警报分类为单个通知。当许多系统同时发生故障并且可能同时触发数百到数千个警报时,此功能特别有用。

示例:发生网络分区时,群集中正在运行数十个或数百个服务实例。您有一半的服务实例不再可以访问数据库。Prometheus中的警报规则配置为在每个服务实例无法与数据库通信时为其发送警报。结果,数百个警报被发送到Alertmanager。

作为用户,人们只希望获得一个页面,同时仍然能够准确查看受影响的服务实例。因此,可以将Alertmanager配置为按警报的群集和警报名称分组警报,以便它发送一个紧凑的通知。

警报的分组,分组通知的时间以及这些通知的接收者由配置文件中的路由树配置。

沉默

沉默是一种简单的特定时间静音提醒的机制。一种沉默是通过匹配器来配置,就像路由树一样。传入的警报会匹配RE,如果匹配,将不会为此警报发送通知。

在Alertmanager的Web界面中配置沉默。

抑制

抑制是指当警报发出后,停止重复发送由此警报引发其他错误的警报的机制。

例如,当警报被触发,通知整个集群不可达,可以配置Alertmanager忽略由该警报触发而产生的所有其他警报,这可以防止通知数百或数千与此问题不相关的其他警报。

抑制机制可以通过Alertmanager的配置文件来配置。

高可用性

Alertmanager支持配置以创建高可用性集群。

Alert的三种状态:

1. pending:警报被激活,但是低于配置的持续时间。这里的持续时间即rule里的FOR字段设置的时间。改状态下不发送报警。

2. firing:警报已被激活,而且超出设置的持续时间。该状态下发送报警。

3. inactive:既不是pending也不是firing的时候状态变为inactive

prometheus触发一条告警的过程:

prometheus--->触发阈值--->超出持续时间--->alertmanager--->分组|抑制|静默--->媒体类型--->邮件|钉钉|微信等。

二、AlertManager 配置邮件告警

AlertManager 默认配置文件为 alertmanager.yml,在容器内路径为 /etc/alertmanager/alertmanager.yml,默认配置如下:

global:
  resolve_timeout: 5m

route:
  group_by: ['alertname']
  group_wait: 10s
  group_interval: 10s
  repeat_interval: 1h
  receiver: 'web.hook'
receivers:
- name: 'web.hook'
  webhook_configs:
  - url: 'http://127.0.0.1:5001/'
inhibit_rules:
  - source_match:
      severity: 'critical'
    target_match:
      severity: 'warning'
    equal: ['alertname', 'dev', 'instance']

简单介绍一下主要配置的作用:

global: 全局配置,包括报警解决后的超时时间、SMTP 相关配置、各种渠道通知的 API 地址等等。
route: 用来设置报警的分发策略,它是一个树状结构,按照深度优先从左向右的顺序进行匹配。
receivers: 配置告警消息接受者信息,例如常用的 email、wechat、slack、webhook 等消息通知方式。
inhibit_rules: 抑制规则配置,当存在与另一组匹配的警报(源)时,抑制规则将禁用与一组匹配的警报(目标)。

自定义邮件模板

AlertManager 支持自定义邮件模板配置的,创建数据目录。

mkdir -p /data/alertmanager/template
mkdir -p /data/alertmanager/storage
chmod 777 -R /data/alertmanager/storage

新建一个模板文件 email.tmpl

vi /data/alertmanager/template/email.tmpl
{{ define "email.from" }}12345678@qq.com{{ end }}
{{ define "email.to" }}12345678@qq.com{{ end }}
{{ define "email.to.html" }}
{{ range .Alerts }}
=========start==========<br>
告警程序: prometheus_alert <br>
告警级别: {{ .Labels.severity }} 级 <br>
告警类型: {{ .Labels.alertname }} <br>
故障主机: {{ .Labels.instance }} <br>
告警主题: {{ .Annotations.summary }} <br>
告警详情: {{ .Annotations.description }} <br>
触发时间: {{ .StartsAt.Format "2019-08-04 16:58:15" }} <br>
=========end==========<br>
{{ end }}
{{ end }}

说明:

define 用来定义变量,配置3个变量,分别是:email.from、email.to、email.to.html ,可以在 alertmanager.yml 文件中直接配置引用。

这里 email.to.html 就是要发送的邮件内容,支持 Html 和 Text 格式。为了显示好看,采用 Html 格式简单显示信息。

{{ range .Alerts }} 是个循环语法,用于循环获取匹配的 Alerts 的信息,下边的告警信息跟上边默认邮件显示信息一样,只是提取了部分核心值来展示。

基于docker安装

编辑配置文件,配置一下使用 Email 方式通知报警信息,这里以 QQ 邮箱为例,

vi /data/alertmanager/alertmanager.yml
# 全局配置项
global:
  resolve_timeout: 5m #超时,默认5min
  #邮箱smtp服务
  smtp_smarthost: 'smtp.qq.com:465'
  smtp_from: '12345678@qq.com'
  smtp_auth_username: '12345678@qq.com'
  smtp_auth_password: 'hlwoumzkxlnwaszbcej'
  smtp_require_tls: false

# 定义模板信息
templates:
  - 'template/*.tmpl'   # 路径

# 路由
route:
  group_by: ['alertname'] # 报警分组依据
  group_wait: 10s #组等待时间
  group_interval: 10s # 发送前等待时间
  repeat_interval: 1h #重复周期
  receiver: 'mail' # 默认警报接收者

# 警报接收者
receivers:
- name: 'mail' #警报名称
  email_configs:
  - to: '{{ template "email.to" . }}'  #接收警报的email
    html: '{{ template "email.to.html" . }}' # 模板
    send_resolved: true

# 告警抑制
inhibit_rules:
  - source_match:
      severity: 'critical'
    target_match:
      severity: 'warning'
    equal: ['alertname', 'dev', 'instance']

说明:

全局配置:

{{ template "email.from" . }} 意思是,从/data/alertmanager/template文件夹中,引入变量email.from

注意:smtp_require_tls: false,默认是true。一定要改成false才能发送邮件。

smtp_auth_password获取如下:

告警抑制:

抑制的功能其实就是根据label进行去重的操作,上面的配置就会把warning的去掉,告警发送的时候只转发critical的。

下面的equal是合并的条件,其实就是label必须相同的才可以进行抑制。这个根据需求进行相同的选择就行,一般情况alertname能满足条件。

启动服务

docker run -d \
  -p 9093:9093 \
  --name alertmanager \
  --restart=always \
  -v /data/alertmanager:/etc/alertmanager \
  -v /data/alertmanager/storage:/alertmanager \
  prom/alertmanager

访问网页   

http://ip地址:9093

 三、prometheus配置

创建目录

mkdir -p /data/prometheus/data
mkdir -p /data/prometheus/rules
chmod 777 -R /data/prometheus/data

启动参数如下:

docker run -d \
  --restart=always \
  --name prometheus \
  -p 9090:9090 \
  -v /data/prometheus:/etc/prometheus \
  -v /data/prometheus/data:/prometheus \
  -e TZ=Asia/Shanghai \
  prom/prometheus

 /data/prometheus目录结构如下:

./
├── data
├── prometheus.yml
└── rules
    ├── memory_over.yml
    └── node_down.yml

修改文件:/data/prometheus/prometheus.yml

# Alertmanager configuration
alerting:
  alertmanagers:
  - static_configs:
    - targets:
      - 192.168.101.21:9093

# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:
  - "rules/*.yml"
scrape_configs:
  - job_name: 'prometheus'
    static_configs:
    - targets: ['192.168.101.21:9090']
      labels:
        instance: prometheus
        service: prometheus-service
 
  - job_name: 'node-exporter'
    static_configs:
    - targets: ['192.168.101.21:9100'] 
      labels: 
        instance: vm-192.168.101.21
        service: node-service

alerting 里面,指定Alertmanager 的地址。

rule_files 里面,指定了告警规则。

node_down.yml

groups:
- name: node-up
  rules:
  - alert: node-up
    expr: up{job="node-exporter"} == 0
    for: 15s
    labels:
      severity: warning
      team: node
    annotations:
      summary: "{{ $labels.instance }} 已停止运行!"
      description: "{{ $labels.instance }} 检测到异常停止!请重点关注!!!"

memory_over.yml

groups:
- name: example
  rules:
  - alert: NodeMemoryUsage
    expr: (1 - (node_memory_MemAvailable_bytes / (node_memory_MemTotal_bytes))) * 100 > 80
    for: 1m
    labels:
      severity: warning
    annotations:
      summary: "{{$labels.instance}}: High Memory usage detected"
      description: "{{$labels.instance}}: Memory usage is above 80% (current value is:{{ $value }})"

 expr 是计算公式,(1 - (node_memory_MemAvailable_bytes / (node_memory_MemTotal_bytes))) * 100 表示获取内存使用率。

启动node-exporter

docker run --name node-exporter -d -p 9100:9100 prom/node-exporter:latest

重启prometheus

docker restart prometheus

访问网页   

http://ip地址:9090

 

四、测试报警

这里直接修改 /data/prometheus/rules/memory_over.yml文件,告警阈值改为1

expr: (1 - (node_memory_MemAvailable_bytes / (node_memory_MemTotal_bytes))) * 100 > 1

等待1分钟,会出现Pending。再等待一分钟,会出现Firing

扩展:

往钉钉发消息

1、获取webhook

 

 

 2、修改/data/alertmanager/alertmanager.yml

global:
  resolve_timeout: 5m
route:
  group_by: ['alertname']
  group_wait: 10s
  group_interval: 10s
  repeat_interval: 1h
  receiver: 'web.hook'
receivers:
- name: 'web.hook'
  webhook_configs:
  - send_resolved: true
    url: 'http://192.168.101.21:8060/dingtalk/webhook1/send'
inhibit_rules:
  - source_match:
      severity: 'critical'
    target_match:
      severity: 'warning'
    equal: ['alertname', 'dev', 'instance']

重启

docker restart prometheus

第一种:没有钉钉模板

3、docker启动dingtalk

docker run -d --restart always -p 8060:8060 timonwong/prometheus-webhook-dingtalk:v0.3.0 --ding.profile="webhook1=https://oapi.dingtalk.com/robot/send?access_token=hlwbacb272562e9fb003cc68ebcff69dd99965de71a7b98ead92eae8a73135e5a13"

 dingtalk最新的镜像,启动之后报错。所以用了v0.3.0版本

4、钉钉收到通知

第二种:使用钉钉模板

新建模板 

/root/alertmanager/template/dingding.tmpl

{{ define "__subject" }}[{{ .Status | toUpper }}{{ if eq .Status "firing" }}:{{ .Alerts.Firing | len }}{{ end }}] {{ .GroupLabels.SortedPairs.Values | join " " }} {{ if gt (len .CommonLabels) (len .GroupLabels) }}({{ with .CommonLabels.Remove .GroupLabels.Names }}{{ .Values | join " " }}{{ end }}){{ end }}{{ end }}
{{ define "__alertmanagerURL" }}{{ .ExternalURL }}/#/alerts?receiver={{ .Receiver }}{{ end }}

{{ define "__text_alert_list" }}{{ range . }}
**告警程序**  
**设备名称:**{{ .Labels.deviceName }}  
**告警级别:**{{ .Labels.severity }}   
**所属厂区:**{{ .Labels.factoryArea }}  
**所属车间:** {{ .Labels.workShop }}   
**IP_PORT:** {{ .Labels.ip }}:{{ .Labels.port }}   
**告警主题:** {{ .Annotations.summary }}  
**告警描叙:** {{ .Annotations.description }}  
**触发时间:**{{ (.StartsAt.Add 28800e9).Format "2006-01-02 15:04:05" }}

------------------------

{{ end }}{{ end }}

{{ define "__text_resolve_list" }}{{ range .  }}
**恢复程序**  
**设备名称:**{{ .Labels.deviceName }}   
**所属厂区:**{{ .Labels.factoryArea }}   
**所属车间:** {{ .Labels.workShop }}    
**IP_PORT:** {{ .Labels.ip }}:{{ .Labels.port }}   
**恢复描叙:** {{ .Annotations.description }}  
**触发时间: **{{ (.StartsAt.Add 28800e9).Format "2006-01-02 15:04:05" }}  
------------------------
{{ end }}{{ end }}


{{ define "ding.link.title" }}{{ template "__subject" . }}{{ end }}
{{ define "ding.link.content" }}#### \[{{ .Status | toUpper }}{{ if eq .Status "firing" }}:{{ .Alerts.Firing | len }}{{ end }}\] **[{{ index .GroupLabels "deviceName" }}]({{ template "__alertmanagerURL" . }})**
{{ if gt (len .Alerts.Firing) 0 -}}


**====侦测到故障====**

{{ template "__text_alert_list" .Alerts.Firing }}
{{- end }}
{{ if gt (len .Alerts.Resolved) 0 -}}
恢复列表:
{{ template "__text_resolve_list" .Alerts.Resolved }}
{{- end }}
{{- end }}

 启动:

docker run -d --restart always -p 8060:8060 --name webhook-dingding  \
-v /root/alertmanager/template/dingding.tmpl:/root/dingding.tmpl  \
-v /etc/localtime:/etc/localtime timonwong/prometheus-webhook-dingtalk:v0.3.0 
--template.file="/root/dingding.tmpl" --ding.profile="webhook1=https://oapi.dingtalk.com/robot/send?access_token=c531304a1908167164de615631d3cffe246e4af577148aff773a43796bdd77c2"

 

 

 5、启动node-exporter

docker restart node-exporter
 

五、java使用

1、查看alermanager端口号

2、 

访问地址 :​​​​​​http://ip:9093/api/v1/alerts

 body体如下:

[
{
    "labels":{
        "alertname":"test3",
        "station":"袁*****站",
        "imei":"862167050493422",
        "service":"test",
        "severity":"warning",
        "team":"山东***",
        "instance":"test-node",
        "dev":"dev"
    },
    "annotations":{
        "description":"寒亭街道纸坊*************数据",
        "summary":"缺少冻********结数据"
        
    }
}
]

 效果如下:

六、配置企业微信

1、登录企业微信

​​​企业微信

 2、

 记住AgentId 和 Secret

 记住企业ID

3、Alertmanager 配置

vi wechat.tmpl 消息模板,消息模板用于格式化消息

{{ define "wechat.default.message" }}
{{- if gt (len .Alerts.Firing) 0 -}}
{{- range $index, $alert := .Alerts -}}
{{- if eq $index 0 -}}
告警类型: {{ $alert.Labels.alertname }}
告警级别: {{ $alert.Labels.severity }}
=====================
{{- end }}
===告警详情===
告警详情: {{ $alert.Annotations.message }}
故障时间: {{ $alert.StartsAt.Format "2006-01-02 15:04:05" }}
===参考信息===
{{ if gt (len $alert.Labels.instance) 0 -}}故障实例ip: {{ $alert.Labels.instance }};{{- end -}}
{{- if gt (len $alert.Labels.namespace) 0 -}}故障实例所在namespace: {{ $alert.Labels.namespace }};{{- end -}}
{{- if gt (len $alert.Labels.node) 0 -}}故障物理机ip: {{ $alert.Labels.node }};{{- end -}}
{{- if gt (len $alert.Labels.pod_name) 0 -}}故障pod名称: {{ $alert.Labels.pod_name }}{{- end }}
=====================
{{- end }}
{{- end }}
{{- if gt (len .Alerts.Resolved) 0 -}}
{{- range $index, $alert := .Alerts -}}
{{- if eq $index 0 -}}
告警类型: {{ $alert.Labels.alertname }}
告警级别: {{ $alert.Labels.severity }}
=====================
{{- end }}
===告警详情===
告警详情: {{ $alert.Annotations.message }}
故障时间: {{ $alert.StartsAt.Format "2006-01-02 15:04:05" }}
恢复时间: {{ $alert.EndsAt.Format "2006-01-02 15:04:05" }}
===参考信息===
{{ if gt (len $alert.Labels.instance) 0 -}}故障实例ip: {{ $alert.Labels.instance }};{{- end -}}
{{- if gt (len $alert.Labels.namespace) 0 -}}故障实例所在namespace: {{ $alert.Labels.namespace }};{{- end -}}
{{- if gt (len $alert.Labels.node) 0 -}}故障物理机ip: {{ $alert.Labels.node }};{{- end -}}
{{- if gt (len $alert.Labels.pod_name) 0 -}}故障pod名称: {{ $alert.Labels.pod_name }};{{- end }}
=====================
{{- end }}
{{- end }}
{{- end }}

vi alertmanager.yml

global:
  # The smarthost and SMTP sender used for mail notifications.
  # smtp_smarthost: 'localhost:25'
  # smtp_from: 'alertmanager@example.org'
  # smtp_auth_username: 'alertmanager'
  # smtp_auth_password: 'password'
  # smtp_require_tls: true
  # The Slack webhook URL.
  # slack_api_url: ''
  wechat_api_url: 'https://qyapi.weixin.qq.com/cgi-bin/'  # 请勿修改
  wechat_api_corp_id: 'ww18615603472f6b05'  # 企业ID
templates:
- '.../conf/*.tmpl'  # wechat.tmpl 消息模板的位置 
route:
  receiver: "wechat"  # 和下面 receivers.name 一致  
  group_by: ['env','instance','alertname','type','group','job']
  group_wait:      30s
  group_interval:  3m
  repeat_interval: 3m
  routes:
receivers:
- name: 'wechat' 
  wechat_configs:
  - send_resolved: true  # 是否发生 resolved 消息
    to_user: '@all'  # 所有用户
    message: '{{ template "wechat.default.message" . }}'  # 使用消息模板
    agent_id: '1000002'  # 应用的 AgentId
    api_secret: 'dDeZazjNCdWsF5R30lh3xrj1_TtGw3zD_p5AJS4JKOc'  # 应用的 Secret

重启 Alertmanager,发送即可

alertmanager最终版本

global:
  resolve_timeout: 5m
  wechat_api_url: 'https://qyapi.weixin.qq.com/cgi-bin/'  # 请勿修改
  wechat_api_corp_id: 'wwe8ace4f5489c9123'  # 企业ID
  #邮箱smtp服务
  smtp_smarthost: 'smtp.qq.com:465'
  smtp_from: '604957837@qq.com'
  smtp_auth_username: '604957837@qq.com'
  smtp_auth_password: 'oumzkxlnwaszbcej'
  smtp_require_tls: false
# 定义模板信息
templates:
   - 'template/*.tmpl'   # 路径
route:
  group_by: ['stationname']
  group_wait: 10s
  group_interval: 10s
  repeat_interval: 1h
  receiver: 'sdmkding'
  routes:
  - receiver: 'sdmkding'
    group_wait: 10s
    match:
      notification: 'ding'
      team: 'sdmk'
  - receiver: 'swding'
    group_wait: 10s
    match:
      notification: 'ding'
      team: 'software'
  - receiver: 'wechat'
    group_wait: 10s
    match:
      notification: 'wechat'
  - receiver: 'mail'
    group_wait: 10s
    match:
      notification: 'mail'
receivers:
- name: 'sdmkding'
  webhook_configs:
  - send_resolved: true
    url: 'http://192.168.101.32:8060/dingtalk/webhook1/send'
- name: 'swding'
  webhook_configs:
  - send_resolved: true
    url: 'http://192.168.101.32:8061/dingtalk/webhook1/send'
    #html: '{{ template "ding.default.message" . }}'
- name: 'wechat'
  wechat_configs:
  - send_resolved: true  # 是否发生 resolved 消息
    to_user: '@all'  # 所有用户
    message: '{{ template "wechat.default.message" . }}'  # 使用消息模板
    agent_id: '1000002'  # 应用的 AgentId
    api_secret: 'FaNW3mFiyaFVoJ4slCaqZHanWNfmukggXtpBiIkd7So'  # 应用的 Secret
- name: 'mail' #警报名称
  email_configs:
  - to: '{{ template "email.to" . }}'  #接收警报的email
    html: '{{ template "email.to.html" . }}' # 模板
    send_resolved: true
inhibit_rules:
  - source_match:
      severity: 'critical'
    target_match:
      severity: 'warning'
    equal: ['stationname', 'freezedata', 'meterdata','miniemsdata']

 文献参考:

Alertmanager 安装与使用 - 肖祥 - 博客园 (cnblogs.com)

Alertmanager 企业微信配置 - 简书

本文含有隐藏内容,请 开通VIP 后查看

网站公告

今日签到

点亮在社区的每一天
去签到