草庐IT

Linux中监控流量常用命令

1.iftop  以CentOS7.8为例,先执行以下命令yuminstall-yepel-release安装iftopyuminstall-yiftopiftop界面相关说明TX:发送流量RX:接收流量TOTAL:总流量peak:流量峰值rates:分别表示过去2s/10s/40s的平均流量iftop常用参数参数详细解释-h查看帮助信息-i网卡名称查看指定网卡流量-B以bytes为单位显示流量(默认是bits)-n使host信息默认直接都显示IP-F显示特定网段的进出流量如iftop-F10.10.26.0/24示例截图2.iptraf  以CentOS7.8为例,先执行以下命令yumins

Linux中监控流量常用命令

1.iftop  以CentOS7.8为例,先执行以下命令yuminstall-yepel-release安装iftopyuminstall-yiftopiftop界面相关说明TX:发送流量RX:接收流量TOTAL:总流量peak:流量峰值rates:分别表示过去2s/10s/40s的平均流量iftop常用参数参数详细解释-h查看帮助信息-i网卡名称查看指定网卡流量-B以bytes为单位显示流量(默认是bits)-n使host信息默认直接都显示IP-F显示特定网段的进出流量如iftop-F10.10.26.0/24示例截图2.iptraf  以CentOS7.8为例,先执行以下命令yumins

基于 Dubbo Admin 动态进行流量隔离

Dubbo提供动态流量隔离的服务治理能力,可以在无需重启应用的情况下,动态进行流量隔离。Dubbo可以通过XML配置,注解配置,动态配置实现流量隔离,这里主要介绍动态配置的方式,其他配置方式请参考旧文档配置开始之前请确保成功运行Dubbo-Admin背景信息如果一个应用有多个版本在线上同时运行,部署在不同环境中,如日常环境和特殊环境,则可以使用标签路由对不同环境中的不同版本进行流量隔离,将秒杀订单流量或不同渠道订单流量路由到特殊环境,将正常的流量路由到日常环境。即使特殊环境异常,本应进入特殊环境的流量也不会进入日常环境,不影响日常环境的使用。操作步骤标签路由登录Dubbo-Admin控制台在左

基于 Dubbo Admin 动态进行流量隔离

Dubbo提供动态流量隔离的服务治理能力,可以在无需重启应用的情况下,动态进行流量隔离。Dubbo可以通过XML配置,注解配置,动态配置实现流量隔离,这里主要介绍动态配置的方式,其他配置方式请参考旧文档配置开始之前请确保成功运行Dubbo-Admin背景信息如果一个应用有多个版本在线上同时运行,部署在不同环境中,如日常环境和特殊环境,则可以使用标签路由对不同环境中的不同版本进行流量隔离,将秒杀订单流量或不同渠道订单流量路由到特殊环境,将正常的流量路由到日常环境。即使特殊环境异常,本应进入特殊环境的流量也不会进入日常环境,不影响日常环境的使用。操作步骤标签路由登录Dubbo-Admin控制台在左

基于 Dubbo Admin 实现流量灰度

Dubbo提供流量灰度的服务治理能力,可以在无需重启应用的情况下,配置标签路由规则和条件路由实现灰度发布。Dubbo可以通过XML配置,注解配置,动态配置实现流量灰度,这里主要介绍动态配置的方式,其他配置方式请参考旧文档配置开始之前请确保成功运行Dubbo-Admin背景信息在产品开发中会遇到需求变化、版本迭代的场景,为了兼顾需求变化和系统稳定,发布要尽可能平滑,影响人群要由少到多,一旦有问题马上回滚。Dubbo-Admin提供了动态的流量灰度能力,能够帮助您对新服务作标,服务平滑发布,提高服务的稳定和可用性。操作步骤条件路由登录Dubbo-Admin控制台在左侧导航栏选择服务治理>条件路由。

基于 Dubbo Admin 实现流量灰度

Dubbo提供流量灰度的服务治理能力,可以在无需重启应用的情况下,配置标签路由规则和条件路由实现灰度发布。Dubbo可以通过XML配置,注解配置,动态配置实现流量灰度,这里主要介绍动态配置的方式,其他配置方式请参考旧文档配置开始之前请确保成功运行Dubbo-Admin背景信息在产品开发中会遇到需求变化、版本迭代的场景,为了兼顾需求变化和系统稳定,发布要尽可能平滑,影响人群要由少到多,一旦有问题马上回滚。Dubbo-Admin提供了动态的流量灰度能力,能够帮助您对新服务作标,服务平滑发布,提高服务的稳定和可用性。操作步骤条件路由登录Dubbo-Admin控制台在左侧导航栏选择服务治理>条件路由。

全链路压测的整体架构设计,以及5种实现方案流量染色方案、数据隔离方案、接口隔离方案、零侵入方案、服务监控方案【代码级别】

业务模块介绍现在我们对整体的业务进行介绍以及演示5.全链路整体架构上面介绍了为什么需要全链路压测,下面来看下全链路压测的整体架构。​ 整体架构如下主要是对压测客户端的压测数据染色,全链路中间件识别出染色数据,并将正常数据和压测数据区分开,进行数据隔离,这里主要涉及到mysql数据库,RabbitMQ,Redis,还需要处理因为hystrix线程池不能通过ThreadLocal传递染色表示的问题。5.1需要应对的问题5.1.1业务问题如何开展全链路压测?在说这个问题前,我们先考虑下,全链路压测有哪些问题比较难解决。涉及的系统太多,牵扯的开发人员太多​ 在压测过程中,做一个全链路的压测一般会涉

全链路压测的整体架构设计,以及5种实现方案流量染色方案、数据隔离方案、接口隔离方案、零侵入方案、服务监控方案【代码级别】

业务模块介绍现在我们对整体的业务进行介绍以及演示5.全链路整体架构上面介绍了为什么需要全链路压测,下面来看下全链路压测的整体架构。​ 整体架构如下主要是对压测客户端的压测数据染色,全链路中间件识别出染色数据,并将正常数据和压测数据区分开,进行数据隔离,这里主要涉及到mysql数据库,RabbitMQ,Redis,还需要处理因为hystrix线程池不能通过ThreadLocal传递染色表示的问题。5.1需要应对的问题5.1.1业务问题如何开展全链路压测?在说这个问题前,我们先考虑下,全链路压测有哪些问题比较难解决。涉及的系统太多,牵扯的开发人员太多​ 在压测过程中,做一个全链路的压测一般会涉

GC耗时高,原因竟是服务流量小?

原创:扣钉日记(微信公众号ID:codelogs),欢迎分享,转载请保留出处。简介最近,我们系统配置了GC耗时的监控,但配置上之后,系统会偶尔出现GC耗时大于1s的报警,排查花了一些力气,故在这里分享下。发现问题我们系统分多个环境部署,出现GC长耗时的是俄罗斯环境,其它环境没有这个问题,这里比较奇怪的是,俄罗斯环境是流量最低的一个环境,而且大多数GC长耗时发生在深夜。发现报警后,我立马查看了GC日志,如下: 日志中出现了to-spaceexhausted,经过一番了解,出现这个是由于g1在做gc时,都是先复制存活对象,再回收原region,当没有空闲空间复制存活对象时,就会出现to-space

GC耗时高,原因竟是服务流量小?

原创:扣钉日记(微信公众号ID:codelogs),欢迎分享,转载请保留出处。简介最近,我们系统配置了GC耗时的监控,但配置上之后,系统会偶尔出现GC耗时大于1s的报警,排查花了一些力气,故在这里分享下。发现问题我们系统分多个环境部署,出现GC长耗时的是俄罗斯环境,其它环境没有这个问题,这里比较奇怪的是,俄罗斯环境是流量最低的一个环境,而且大多数GC长耗时发生在深夜。发现报警后,我立马查看了GC日志,如下: 日志中出现了to-spaceexhausted,经过一番了解,出现这个是由于g1在做gc时,都是先复制存活对象,再回收原region,当没有空闲空间复制存活对象时,就会出现to-space