草庐IT

Exporter

全部标签

kubernetes之DaemonSet以及滚动更新 (三)

1.什么是DaemonSet?1.1DaemonSet是Pod控制器的又一种实现方式,用于在集群中的全部节点上同时运行一份指定的Pod资源副本,后续加入集群的节点也会自动创建一个相关的Pod对象,当从集群移除节点时,此类Pod对象也将被自动回收无需创建。管理员也可以使用"节点选择器"以及标签指定仅在部分具有特定特征的节点上运行指定的Pod对象。1.2官方文档:https://kubernetes.io/zh-cn/docs/concepts/workloads/controllers/daemonset/2.DaemonSet的用法在每个节点上运行集群存储守护进程,如glusterd或Ceph

k8s中使用prometheus operator监控外部服务器部署的windows exporter

k8s中使用prometheusoperator监控外部服务器部署的windowsexporter0、文档说明(1)PrometheusOperator是一个流行的k8s集群监控套件,项目地址:https://github.com/prometheus-operator/kube-prometheus,在参考文档部署前,请先确保在k8s环境中已经部署成功PrometheusOperator组件(2)本文档通过ServiceMonitor方式部署监控信息,至于其他方式的部署,这里不做说明(3)在k8s中监控外部资源,并不仅限于windowsexporter,可以是k8s外部任意类型的服务对应的e

k8s中使用prometheus operator监控外部服务器部署的windows exporter

k8s中使用prometheusoperator监控外部服务器部署的windowsexporter0、文档说明(1)PrometheusOperator是一个流行的k8s集群监控套件,项目地址:https://github.com/prometheus-operator/kube-prometheus,在参考文档部署前,请先确保在k8s环境中已经部署成功PrometheusOperator组件(2)本文档通过ServiceMonitor方式部署监控信息,至于其他方式的部署,这里不做说明(3)在k8s中监控外部资源,并不仅限于windowsexporter,可以是k8s外部任意类型的服务对应的e

IoT 边缘集群基于 Kubernetes Events 的告警通知实现

背景边缘集群(基于树莓派+K3S)需要实现基本的告警功能。边缘集群限制CPU/内存/存储资源紧张,无法支撑至少需要2GB以上内存和大量存储的基于Prometheus的完整监控体系方案(即使是基于PrometheusAgent,也无法支撑)(需要避免额外的存储和计算资源消耗)网络条件,无法支撑监控体系,因为监控体系一般都需要每1min定时(或每时每刻)传输数据,且数据量不小;存在5G收费网络的情况,且访问的目的端地址需要开通权限,且按照流量收费,且因为5G网络条件,网络传输能力受限,且不稳定(可能会在一段时间内离线);关键需求总结下来,关键需求如下:实现对边缘集群异常的及时告警,需要知道边缘集群

IoT 边缘集群基于 Kubernetes Events 的告警通知实现

背景边缘集群(基于树莓派+K3S)需要实现基本的告警功能。边缘集群限制CPU/内存/存储资源紧张,无法支撑至少需要2GB以上内存和大量存储的基于Prometheus的完整监控体系方案(即使是基于PrometheusAgent,也无法支撑)(需要避免额外的存储和计算资源消耗)网络条件,无法支撑监控体系,因为监控体系一般都需要每1min定时(或每时每刻)传输数据,且数据量不小;存在5G收费网络的情况,且访问的目的端地址需要开通权限,且按照流量收费,且因为5G网络条件,网络传输能力受限,且不稳定(可能会在一段时间内离线);关键需求总结下来,关键需求如下:实现对边缘集群异常的及时告警,需要知道边缘集群

自定义prometheus exporter实现监控阿里云RDS

prometheus-icon.png背景1、Prometheus官网提供的mysqlexporter对于mysql实例只能一个进程监控一个实例,数据库实例很多的情况,不方便管理2、内部有定制化监控需求,RDS默认无法实现,比如对数据库增长的监控3、默认Prometheus官网提供的mysqlexporter采集mysql几乎所有的指标,但是实际用到的却不多。浪费存储空间思路先了解对于数据库的监控需求1、一个exporter可以采集所有RDS实例数据2、RDS实例采集指标不用全部采集,按需即可3、定制化需求数据库磁盘使用率,默认mysql的status/variables中没有该指标统计数据库

自定义prometheus exporter实现监控阿里云RDS

prometheus-icon.png背景1、Prometheus官网提供的mysqlexporter对于mysql实例只能一个进程监控一个实例,数据库实例很多的情况,不方便管理2、内部有定制化监控需求,RDS默认无法实现,比如对数据库增长的监控3、默认Prometheus官网提供的mysqlexporter采集mysql几乎所有的指标,但是实际用到的却不多。浪费存储空间思路先了解对于数据库的监控需求1、一个exporter可以采集所有RDS实例数据2、RDS实例采集指标不用全部采集,按需即可3、定制化需求数据库磁盘使用率,默认mysql的status/variables中没有该指标统计数据库

prometheus+ Grafana监控全家桶

在调研监控工具,之前一直用的zabbix很平稳(从没出过问题),监控内容大概有系统级别的cpu、内存、硬盘之类的,也有服务的运行情况、elasticsearch、hive、kafka的lag等等,但有几个问题没法解决:1、zabbix没法监控flink(虽然可以通过api调用方式,但flink指标有几百个一个一个加,并且zabbix机制为一个一个指标取的,极其麻烦和低效)2、jvm级别的es、spring、kafka等运行情况不好获取3、取kafka数据时,我们有n多topic对应又有n多groupid来消费,如果要取一遍所有信息,zabbix也是只能一个一个取(当然后边发现有模板的方式也可以

prometheus+ Grafana监控全家桶

在调研监控工具,之前一直用的zabbix很平稳(从没出过问题),监控内容大概有系统级别的cpu、内存、硬盘之类的,也有服务的运行情况、elasticsearch、hive、kafka的lag等等,但有几个问题没法解决:1、zabbix没法监控flink(虽然可以通过api调用方式,但flink指标有几百个一个一个加,并且zabbix机制为一个一个指标取的,极其麻烦和低效)2、jvm级别的es、spring、kafka等运行情况不好获取3、取kafka数据时,我们有n多topic对应又有n多groupid来消费,如果要取一遍所有信息,zabbix也是只能一个一个取(当然后边发现有模板的方式也可以