草庐IT

指标中台

全部标签

json - 使用 Rumen 处理的 JobHistory 日志中的 Cpu 指标

我在Hadoop集群中收集了我的作业统计信息。我获取了JobHistory日志并使用Rumen处理它们。在json文件中,对于每个任务尝试,都有一个名为“cpuUsages”的字段。例子:"cpuUsages":[6028,3967,3597,3354,3225,3454,3589,4316,42632,102,103,103]我需要知道这些数字的计量单位。一些官方或学术引用资料? 最佳答案 Rumen从MR作业历史服务器中提取指标。因此指标与MR作业历史服务器中的指标相同。可以看到hereMR作业历史服务器提供MILLISECON

hadoop - Flink Prometheus Push Gateway Reporter - 在作业关闭时删除指标

我已经按照文档指标部分中的说明设置了PrometheusPushGatewayReporter。我可以看到来自推送网关UI中公开的flinkjobmanager和taskmanagers的指标,以及它们已被Prometheus集群正确抓取。问题是,即使我明确设置了deleteOnJobShutdown配置选项,当通过flinkcli工具取消作业时,也只会删除jobmanager的指标。有没有办法同时删除陈旧的任务管理器指标?我的配置如下:metrics.reporter.promgateway.class:org.apache.flink.metrics.prometheus.Prom

hadoop - 信息配置弃用 session ID 已弃用,而是使用 dfs 指标 session ID

我正在尝试设置hadoop2.6.2。几乎一切都已设置。我的Ubuntu版本:15.10我的hadoop路径是/usr/local/hadoop/hadoop-2.6.2java路径为/usr/local/java/jdk1.8.0_65我在/etc/profile中提到了java和hadoop路径我在hadoop-2.6.2/etc/hadoop中编辑了4个文件:core-site.xml、hadoop-env.sh、hdfs-site.xml和mapred-site.xml但是当我尝试从hadoop站点执行以下命令时bin/hadoopjarshare/hadoop/mapredu

hadoop - 以 MB 或 Mb 为单位的 mapreduce 指标中的吞吐量

运行TestDFSIO后,我得到了以下指标:2019-04-3009:50:35,790INFOfs.TestDFSIO:Date&time:TueApr3009:50:35EDT20192019-04-3009:50:35,791INFOfs.TestDFSIO:Numberoffiles:1002019-04-3009:50:35,791INFOfs.TestDFSIO:TotalMBytesprocessed:100002019-04-3009:50:35,791INFOfs.TestDFSIO:Throughputmb/sec:376.92019-04-3009:50:35,7

hadoop - AWS cloudwatch 自定义指标数据不可见

我已经创建了一个cron作业(cron作业每分钟运行一次)和一个shell脚本,用于在thisanswerinAWSforum的帮助下将HDFS使用情况发布到Cloudwatch|.我的脚本如下所示:#!/bin/sh##Prerequisites:#1.AWScloudwatchCLI#2.JAVA#3.AWScredentialsfileinsideAWScloudwatchCLIdirectory#exportJAVA_HOME=$1exportAWS_CLOUDWATCH_HOME=$2exportAWS_CREDENTIAL_FILE=$AWS_CLOUDWATCH_HOME

hadoop - 如何在满足特定条件时逐行迭代配置单元表并计算指标?

我有如下要求:我正在尝试将MSAccess表宏循环转换为适用于配置单元表。名为trip_details的表包含有关卡车进行的特定行程的详细信息。卡车可以在多个位置parking,parking类型由名为type_of_trip的标志指示。此列包含arrival、departure、loading等值。最终目的是计算每辆卡车的停留时间(卡车在开始另一趟行程之前需要多长时间)。为了计算这个,我们必须逐行迭代表并检查行程类型。一个典型的例子是这样的:在文件末尾执行:将第一行存储在一个变量中。移到第二行。如果type_of_trip=到达:移到第三行如果type_of_trip=结束行程:存储

rest - 通过 REST API 的 Flume 指标

我正在运行hortonworks2.3,目前通过ambari连接到RESTAPI以启动/停止flume服务并提交配置。这一切都很好,我的问题是如何获得指标?以前我曾经运行一个带有参数的代理来生成到http端口的指标,然后使用这个从那里读取它们:-Dflume.root.logger=INFO,console-Dflume.monitoring.type=http-Dflume.monitoring.port=XXXXX但是现在Ambari启动了代理,我不再能控制它。任何帮助表示赞赏:-) 最佳答案 使用Ambari2.6.2.0,h

hadoop - Cloudera 5.4.4 Cluster - 获取聚合使用指标

我想从Cloudera5.4.4Hadoop集群收集汇总使用指标。我心目中的一些指标如下:集群每天/每周的平均CPU利用率Hadoop上运行时间最长的n个作业/查询最常使用集群的前n个用户(按利用率、提交的作业数)集群磁盘使用率与磁盘容量集群磁盘使用量随时间增长是否有任何API/资源/工具等我可以用来开始这个?我不认为我完全确定从哪里开始。任何起点将不胜感激。另外,请分享您在集群使用指标方面的经验(如果有的话)。提前致谢! 最佳答案 Ganglia是一个用于大型集群的开源、可扩展的分布式监控系统。它收集、汇总并提供数十个与机器相关的

hadoop - Ganglia 看到节点但看不到指标

我有一个包含7个节点、1个主节点和6个核心节点的hadoop集群。每台机器上都设置了Ganglia,Web前端正确显示了7个主机。但它只显示来自主节点的指标(包括gmetad和gmond)。其他节点和master节点有相同的gmond.conf文件,web前端一目了然。我不明白Ganglia如何识别7个主机,但只显示带有gmetad的盒子中的指标。如有任何帮助,我们将不胜感激。有没有一种快速的方法来查看这些节点是否正在发送数据?或者这是一个网络问题?更新#1:当我远程登录到不是主节点的gmond主机并查看端口8649时,我看到了XML但没有数据。当我telnet到master机器上的8

hadoop - Riemann Context for Hadoop 使用 metrics2 接口(interface)向 Riemann 发送指标

是否有一个库可以与不同的Hadoop组件(Namenode、datanode、jobtracker、tasktracker)以及Hadoop2组件(资源管理器)集成以向Riemann发送指标? 最佳答案 我编写了一个库来完成上述工作。这些步骤从库的“自述文件”中得到了很好的解释。这是相同的链接:HadooptoRiemannSink 关于hadoop-RiemannContextforHadoop使用metrics2接口(interface)向Riemann发送指标,我们在StackOv