草庐IT

Master-Slave

全部标签

redis - 原redis master在哨兵故障转移后复活时的状态

考虑以下Redis高可用性解决方案设置:3个虚拟机,每个虚拟机运行一个Redis服务器实例和一个哨兵实例来监控设置。R1(VM1上的redis)被配置为master,R2和R3作为slaveofR1;S1...S3(哨兵)全部监控R1,法定人数为2。所有这些都静态写入redis.conf和redis-sentinel.conf在相应的VM上。现在考虑VM1(承载R1和S1)发生故​​障。哨兵选举例如R2作为新的主人,客户端代码jedis会自动适应新的状态。到目前为止一切顺利。当VM1恢复并且R1和S1可用时究竟发生了什么?特别是:R1是否会加入剩余的R2和R3以再次形成3节点设置(例如

redis - 原redis master在哨兵故障转移后复活时的状态

考虑以下Redis高可用性解决方案设置:3个虚拟机,每个虚拟机运行一个Redis服务器实例和一个哨兵实例来监控设置。R1(VM1上的redis)被配置为master,R2和R3作为slaveofR1;S1...S3(哨兵)全部监控R1,法定人数为2。所有这些都静态写入redis.conf和redis-sentinel.conf在相应的VM上。现在考虑VM1(承载R1和S1)发生故​​障。哨兵选举例如R2作为新的主人,客户端代码jedis会自动适应新的状态。到目前为止一切顺利。当VM1恢复并且R1和S1可用时究竟发生了什么?特别是:R1是否会加入剩余的R2和R3以再次形成3节点设置(例如

redis - Redis Sentinel 是否应该监控集群中的每个 Master?

是否需要sentinel以不同的服务名称监控集群中的每个master,或者仅监控集群中3个master中的一个?我当前的配置是3个主服务器、3个从服务器和3个哨兵实例。sentinel的每个实例都在监视每个master。大师1、大师2、大师3。我还没有看到任何文档超过一个master,redis文档也不是很清楚。 最佳答案 我通过自己运行测试找到了解决方案。是的,在集群配置中,您需要监控每个主节点以便进行故障转移。 关于redis-RedisSentinel是否应该监控集群中的每个Mas

redis - Redis Sentinel 是否应该监控集群中的每个 Master?

是否需要sentinel以不同的服务名称监控集群中的每个master,或者仅监控集群中3个master中的一个?我当前的配置是3个主服务器、3个从服务器和3个哨兵实例。sentinel的每个实例都在监视每个master。大师1、大师2、大师3。我还没有看到任何文档超过一个master,redis文档也不是很清楚。 最佳答案 我通过自己运行测试找到了解决方案。是的,在集群配置中,您需要监控每个主节点以便进行故障转移。 关于redis-RedisSentinel是否应该监控集群中的每个Mas

redis 主从复制停止工作

我想弄清楚如何解决我的redis主/从复制问题。它“刚刚停止”工作。设置信息假设我主人的IP地址是10.1.2.3这是我目前检查过的内容:我已经在主服务器和从服务器上重新启动了redis...但是每当我在从服务器上运行INFOREPLICATION时,它都会将链接显示为“已关闭”在主机和从机上运行netstat-lnp。这是大师的输出:masterdb:~#netstat-lnp|grep6379tcp00127.0.0.1:63790.0.0.0:*LISTEN21611/redis-servertcp0010.1.2.3:63790.0.0.0:*LISTEN21611/redis

redis 主从复制停止工作

我想弄清楚如何解决我的redis主/从复制问题。它“刚刚停止”工作。设置信息假设我主人的IP地址是10.1.2.3这是我目前检查过的内容:我已经在主服务器和从服务器上重新启动了redis...但是每当我在从服务器上运行INFOREPLICATION时,它都会将链接显示为“已关闭”在主机和从机上运行netstat-lnp。这是大师的输出:masterdb:~#netstat-lnp|grep6379tcp00127.0.0.1:63790.0.0.0:*LISTEN21611/redis-servertcp0010.1.2.3:63790.0.0.0:*LISTEN21611/redis

Redis哨兵故障转移,选择特定的master

我有3个复制的Redis实例在3台不同的机器上运行:A、B和C。我最初选择A作为我的主人。我还有3个哨兵(每台机器上1个)监视A。如果A出现故障,我希望哨兵选择一个特定的主节点来故障转移到(比如B)。有没有一种方法可以选择特定的master而不是将其留给哨兵的选举机制?由于我在任何地方都找不到这个问题,我认为这不是标准程序,所以我将解释其背后的原因:我的应用程序在负载均衡器后面的A、B和C上运行。主服务器使用其本地Redis数据库,该数据库被复制到其他两个从服务器。当A出现故障时,负载均衡器可以选择B作为master,而Redissentinels可以选择C作为Redismaster。

Redis哨兵故障转移,选择特定的master

我有3个复制的Redis实例在3台不同的机器上运行:A、B和C。我最初选择A作为我的主人。我还有3个哨兵(每台机器上1个)监视A。如果A出现故障,我希望哨兵选择一个特定的主节点来故障转移到(比如B)。有没有一种方法可以选择特定的master而不是将其留给哨兵的选举机制?由于我在任何地方都找不到这个问题,我认为这不是标准程序,所以我将解释其背后的原因:我的应用程序在负载均衡器后面的A、B和C上运行。主服务器使用其本地Redis数据库,该数据库被复制到其他两个从服务器。当A出现故障时,负载均衡器可以选择B作为master,而Redissentinels可以选择C作为Redismaster。

kubernetes - 从 Kubernetes 中的另一个 pod 引用 Helm Redis master

我在Kubernetes上通过Helm运行Redis,想知道如何从我的应用程序中引用主pod,该应用程序也在Kubernetes内部作为pod运行。Helm足以创建ClusterIP服务,但我仍然不清楚在我的应用程序中我总是引用master的内容:MacBook-Pro➜apigit:(master)✗kubectlgetservicesNAMETYPECLUSTER-IPEXTERNAL-IPPORT(S)AGEignoble-hyena-redis-masterClusterIP10.100.187.1886379/TCP5h21mignoble-hyena-redis-slave

kubernetes - 从 Kubernetes 中的另一个 pod 引用 Helm Redis master

我在Kubernetes上通过Helm运行Redis,想知道如何从我的应用程序中引用主pod,该应用程序也在Kubernetes内部作为pod运行。Helm足以创建ClusterIP服务,但我仍然不清楚在我的应用程序中我总是引用master的内容:MacBook-Pro➜apigit:(master)✗kubectlgetservicesNAMETYPECLUSTER-IPEXTERNAL-IPPORT(S)AGEignoble-hyena-redis-masterClusterIP10.100.187.1886379/TCP5h21mignoble-hyena-redis-slave