概要:ELK部署成功后,需要kibana图形展示某应用的性能。初步通过统计分析日志的形式来模拟。日志中有sendTime :消息发出时间,recvTime:处理完毕后打印的日志时间。通过logstash 对日志进行拆分并计算recvTime和sendTime的差值即处理时间(本文标记为responseTime)。并将responseTime展示在kibana中
1、logstash 配置文件
logstash 的配置文件 input 是来自filebeat 端口5044 (filebeat 用于收集out.log的日志)
filter 是对日志内容进行匹配拆分和转换的操作。
logstash-beat.conf 配置文件内容
input {
beats {
port => "5044"
}
}
filter{
grok{
match => [
"message" , "\<%{TIMESTAMP_ISO8601:recvTime}\> INFO recv :{\"ID\":\"%{NUMBER:recvID}\",.*\"sendTime\":\"%{TIMESTAMP_ISO8601:sendTime}\""
]
}
date {
match => ["recvTime", "yyyy-MM-dd HH:mm:ss,SSS"]
target => "recvTimeD"
}
date {
match => ["sendTime", "yyyy-MM-dd HH:mm:ss,SSS"]
target => "sendTimeD"
}
ruby {code => "event.set('responseTime', event.get('recvTimeD').to_i - event.get('sendTimeD').to_i)"}
}
output {
stdout {
}
}
#output {
# elasticsearch {
# hosts => ["http://localhost:9200"]
# index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
# }
#}
grok:是一种采用组合多个预定义的正则表达式,用来匹配分割文本并映射到关键字的工具。通常用来对日志数据进行预处理。logstash的filter模块中grok插件是其实现之一。
eg:日志格式
<2021-10-27 13:02:05,201> INFO recv :{"ID":"000007","Bond":"100001","BondName":"XN0001","sendTime":"2021-10-27 13:02:00,301"}
grok匹配 :
"message" , "\<%{TIMESTAMP_ISO8601:recvTime}\> INFO recv :{\"ID\":\"%{NUMBER:recvID}\",.*\"sendTime\":\"%{TIMESTAMP_ISO8601:sendTime}\""
(说明:message 是logstash 会把收到的日志内容存储在message字段中;
标红的部分是需要将一些值存储到属性中 比如:%{TIMESTAMP_ISO8601:recvTime} ,recvTime 会匹配到 2021-10-27 13:02:05,201;
可以用到正则表达式,日志中原有的< " 需要转义字符前面加\ )
Date:日期拆件
可以把存放在recvTime 和sendTime 中匹配到text 类型的日期转换为 date 类型
date {
match => ["recvTime", "yyyy-MM-dd HH:mm:ss,SSS"]
target => "recvTimeD"
}
以上配置 是将recvTime 中的值转换为 “yyyy-MM-dd HH:mm:ss,SSS”格式 并存储到target
下面是通过kibana 查看到的字段 类型

ruby:插件确实不错,可以随意实现日志解析,相比与正则和直接logstash中的json插件要方便灵活的多。 event.get 可以获取到logstash 中属性的值 event.set 是为属性赋值。 下面是分别获取recvTimeD和sendTimeD的值并转换成int类型 然后相减之后赋值给 responseTime。
ruby {code => "event.set('responseTime', event.get('recvTimeD').to_i - event.get('sendTimeD').to_i)"}
2、 现象验证:
启动logstash 标准输出 :
在out.log中输入日志信息:
日志:<2021-10-27 13:02:05,201> INFO recv :{"ID":"000007","Bond":"100001","BondName":"XN0001","sendTime":"2021-10-27 13:02:00,301"}
用命令的方式追加日志:
printf "<2021-10-27 13:02:05,201> INFO recv :{\"ID\":\"000007\",\"Bond\":\"100001\",\"BondName\":\"XN0001\",\"sendTime\":\"2021-10-27 13:02:00,301\"}\n" >>out.log
logstash 输出:可以看到responseTime 得到的值是5
{
"responseTime" => 5,
"@version" => "1",
"sendTime" => "2021-10-27 13:02:00,301",
"ecs" => {
"version" => "1.11.0"
},
"recvID" => "000007",
"message" => "<2021-10-27 13:02:05,201> INFO recv :{\"ID\":\"000007\",\"Bond\":\"100001\",\"BondName\":\"XN0001\",\"sendTime\":\"2021-10-27 13:02:00,301\"}",
"tags" => [
[0] "beats_input_codec_plain_applied"
],
"@timestamp" => 2021-10-27T05:48:09.913Z,
"log" => {
"offset" => 1638,
"file" => {
"path" => "/home/chen/tool/log/out.log"
}
},
"input" => {
"type" => "log"
},
"host" => {
"os" => {
"version" => "7 (Core)",
"platform" => "centos",
"type" => "linux",
"name" => "CentOS Linux",
"codename" => "Core",
"family" => "redhat",
"kernel" => "3.10.0-1160.31.1.el7.x86_64"
},
"mac" => [
[0] "52:54:00:aa:64:82"
],
"architecture" => "x86_64",
"ip" => [
[0] "10.0.4.10",
[1] "fe80::5054:ff:feaa:6482"
],
"name" => "VM-4-10-centos",
"hostname" => "VM-4-10-centos",
"containerized" => false,
"id" => "2eaabde29fb446cb8202d9ac64d99f37"
},
"recvTime" => "2021-10-27 13:02:05,201",
"sendTimeD" => 2021-10-27T05:02:00.301Z,
"agent" => {
"version" => "7.15.0",
"type" => "filebeat",
"name" => "VM-4-10-centos",
"hostname" => "VM-4-10-centos",
"ephemeral_id" => "b3fd97d2-c8ce-45d2-8e52-6a609c366270",
"id" => "1d86f210-382a-4889-8d0a-d99f642ae0e3"
},
"recvTimeD" => 2021-10-27T05:02:05.201Z
}
重新停掉logstash 并修改配置 输出到es 启动logstash 在kibana查看现象如下图:
关于ELK的如何配置 的内容请参考:1、ELK部署(filebeat、logstash、elasticsearch、kibana)_baidu_41614347的博客-CSDN博客

达到了我的目的 kibana 中可以实时展示 消息的响应时间。
我正在学习如何使用Nokogiri,根据这段代码我遇到了一些问题:require'rubygems'require'mechanize'post_agent=WWW::Mechanize.newpost_page=post_agent.get('http://www.vbulletin.org/forum/showthread.php?t=230708')puts"\nabsolutepathwithtbodygivesnil"putspost_page.parser.xpath('/html/body/div/div/div/div/div/table/tbody/tr/td/div
总的来说,我对ruby还比较陌生,我正在为我正在创建的对象编写一些rspec测试用例。许多测试用例都非常基础,我只是想确保正确填充和返回值。我想知道是否有办法使用循环结构来执行此操作。不必为我要测试的每个方法都设置一个assertEquals。例如:describeitem,"TestingtheItem"doit"willhaveanullvaluetostart"doitem=Item.new#HereIcoulddotheitem.name.shouldbe_nil#thenIcoulddoitem.category.shouldbe_nilendend但我想要一些方法来使用
我有一个字符串input="maybe(thisis|thatwas)some((nice|ugly)(day|night)|(strange(weather|time)))"Ruby中解析该字符串的最佳方法是什么?我的意思是脚本应该能够像这样构建句子:maybethisissomeuglynightmaybethatwassomenicenightmaybethiswassomestrangetime等等,你明白了......我应该一个字符一个字符地读取字符串并构建一个带有堆栈的状态机来存储括号值以供以后计算,还是有更好的方法?也许为此目的准备了一个开箱即用的库?
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
类classAprivatedeffooputs:fooendpublicdefbarputs:barendprivatedefzimputs:zimendprotecteddefdibputs:dibendendA的实例a=A.new测试a.foorescueputs:faila.barrescueputs:faila.zimrescueputs:faila.dibrescueputs:faila.gazrescueputs:fail测试输出failbarfailfailfail.发送测试[:foo,:bar,:zim,:dib,:gaz].each{|m|a.send(m)resc
很好奇,就使用rubyonrails自动化单元测试而言,你们正在做什么?您是否创建了一个脚本来在cron中运行rake作业并将结果邮寄给您?git中的预提交Hook?只是手动调用?我完全理解测试,但想知道在错误发生之前捕获错误的最佳实践是什么。让我们理所当然地认为测试本身是完美无缺的,并且可以正常工作。下一步是什么以确保他们在正确的时间将可能有害的结果传达给您? 最佳答案 不确定您到底想听什么,但是有几个级别的自动代码库控制:在处理某项功能时,您可以使用类似autotest的内容获得关于哪些有效,哪些无效的即时反馈。要确保您的提
这似乎应该有一个直截了当的答案,但在Google上花了很多时间,所以我找不到它。这可能是缺少正确关键字的情况。在我的RoR应用程序中,我有几个模型共享一种特定类型的字符串属性,该属性具有特殊验证和其他功能。我能想到的最接近的类似示例是表示URL的字符串。这会导致模型中出现大量重复(甚至单元测试中会出现更多重复),但我不确定如何让它更DRY。我能想到几个可能的方向...按照“validates_url_format_of”插件,但这只会让验证干给这个特殊的字符串它自己的模型,但这看起来很像重溶液为这个特殊的字符串创建一个ruby类,但是我如何得到ActiveRecord关联这个类模型
假设我做了一个模块如下:m=Module.newdoclassCendend三个问题:除了对m的引用之外,还有什么方法可以访问C和m中的其他内容?我可以在创建匿名模块后为其命名吗(就像我输入“module...”一样)?如何在使用完匿名模块后将其删除,使其定义的常量不再存在? 最佳答案 三个答案:是的,使用ObjectSpace.此代码使c引用你的类(class)C不引用m:c=nilObjectSpace.each_object{|obj|c=objif(Class===objandobj.name=~/::C$/)}当然这取决于
我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时
出于纯粹的兴趣,我很好奇如何按顺序创建PI,而不是在过程结果之后生成数字,而是让数字在过程本身生成时显示。如果是这种情况,那么数字可以自行产生,我可以对以前看到的数字实现垃圾收集,从而创建一个无限系列。结果只是在Pi系列之后每秒生成一个数字。这是我通过互联网筛选的结果:这是流行的计算机友好算法,类机器算法:defarccot(x,unity)xpow=unity/xn=1sign=1sum=0loopdoterm=xpow/nbreakifterm==0sum+=sign*(xpow/n)xpow/=x*xn+=2sign=-signendsumenddefcalc_pi(digits