草庐IT

Kafka集群

全部标签

go - 重消费Kafka消息的可能原因

昨天从日志中发现,kafkagroupcoordinator发起grouprebalance后,kafka重新消费了一些消息。这些消息已在两天前使用(从日志中确认)。日志中报告了另外两个重新平衡,但它们不再重新使用消息。那么为什么第一次reblancing会导致重新消费消息呢?有什么问题?我使用的是golangkafka客户端。这是代码config:=sarama.NewConfig()config.Version=versionconfig.Consumer.Offsets.Initial=sarama.OffsetOldest而且我们在声明消息之前处理消息,因此我们似乎正在为kaf

go - 如何修复 `kafka: client has run out of available brokers to talk to (Is your cluster reachable?)` 错误

我正在开发一个应用程序,该应用程序从sqs队列中读取一条消息,对该数据执行一些操作,然后获取结果并将其发布到kafka主题。为了在本地进行测试,我想在我的docker构建中设置一个kafka图像。我目前能够使用docker-compose在本地启动aws-cli、localstack和我的应用程序的容器。另外,我也可以毫无问题地启动kafka和zookeper。我无法让我的应用程序与kafka通信。我试过使用两个单独的撰写文件,也尝试过网络。最后,我引用了:https://rmoff.net/2018/08/02/kafka-listeners-explained/。这是我的docke

go - 使用 kafka-go 计划在 Kafka 中创建消费者

我是kafka的新手,目前正在研究它。我在golang中使用kafka-go来创建生产者和消费者。目前我能够创建一个生产者,但我希望一旦创建了一个主题的生产者而不是每次都创建消费者。意味着对于每个主题,只创建一次消费者。此外,当需要为主题创建更多消费者以平衡负载时,它会被创建。有没有办法通过goroutines或Faktory来安排它? 最佳答案 你不应该有耦合的生产者/消费者,Kafka让你有完全解耦的生产者/消费者。即使主题不存在,您也可以运行您的消费者(Kafka将创建它,您只会收到一个领导者不可用警告),并在您需要时运行您的

服务搭建篇(七) Elasticsearch单节点部署以及多节点集群部署

感兴趣的话大家可以关注一下公众号:猿人刘先生,欢迎大家一起学习,一起进步,一起来交流吧!1.ElasticsearchElasticsearch(简称ES)是一个分布式,RESTful风格的搜索和数据分析引擎,使用java开发并且是当前最流行的开源的企业级搜索引擎,能够达到近实时搜索,稳定,可靠,快速,安装使用方便。客户端支持Java、.NET(C#)、PHP、Python、Ruby等多种语言。官方网站:https://www.elastic.co/下载地址:https://www.elastic.co/cn/downloads/past-releases#elasticsearch2.单节点

K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路

K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路文章目录K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路1.Node节点资源不足可能会产生的故障2.Node节点资源不足故障排查案例一3.Node节点资源不足故障排查案例二1.Node节点资源不足可能会产生的故障故障一:Pod数量太多超出物理节点的限制每一台Node节点中默认限制最多运行110个Pod资源,当一个应用程序有成百上千的Pod资源时,如果不扩容Node节点或者修改最大Pod数量限制,那么就会导致部分Pod资源无法正常运行,因为节点已经没有资源可以被调度了。解决思路就是扩容Node节点数量或者修改Pod的

go - 集群中 n 个 Web 服务器之间的文件同步

Web集群中有n个节点。文件可以上传到任何节点,然后必须分发到每个其他节点。这种分布不必在事务中发生(事实上它不能,分布式事务不能扩展)并且一些延迟是可以接受的,尽管必须是最小的。可以任意解决冲突(通常最后写入获胜),前提是解决方案也分发给所有节点,以便最终所有节点都具有相同的文件集。可以动态添加和删除节点,而无需重新配置现有节点。必须没有单点故障,也不需要额外的盒子来解决这个问题(比如RabbitMQ)我正在考虑使用consul.io进行动态配置,以便每个节点都可以引用consul来确定其他可用的节点,并编写一个守护进程(Golang)来监视相关文件夹并使用其他节点进行通信零MQ。虽

Golang Kafka 不消耗所有消息 offsetnewest

第一批:-我正在尝试从100个平面文件中提取数据并将其加载到一个数组中,然后将它们作为字节数组一个一个地插入到kafka生产者中。第二批:-我从kafka消费者消费,然后将它们插入NoSQL数据库。我在Kafka的shopifysaramagolang包的配置文件中使用了Offsetnewset。我可以接收消息并将消息插入到kafka,但在消费时我只收到第一条消息。因为我在sarama配置中提供了最新的Offset。我怎样才能得到这里的所有数据。 最佳答案 如果没有任何代码或关于如何配置kafka的更深入的解释(即:主题、分区等),

go - Kafka 0.11/Golang Sarama 版本支持

我花了一些时间发现连接到Kafka0.11集群的Go应用程序使用的是旧的0.8.2版本的库,它在响应中缺少时间戳值。然后我发现不支持Kafka0.11.xAPI/版本(但他们正在努力)。我现在有两个解决方案。首先是在我的应用程序中明确设置所需的版本。其次是“调整”Sarama代码以使用版本0.10.x作为最低版本,使我能够使用所有0.10.xAPI/功能。我还在想为什么版本不是从我正在连接的Kafka代理中获取的?我无法从代码中理解它应该如何工作...我清楚地看到在sarama.Config.Version中设置或定义的版本,但我无法在连接后找到任何更新此值的内容给经纪人?我知道Pyt

go - 用于在 etcd 集群中查找 key 的 API

我正在尝试编写一段代码,我需要在其中查找某个key是否存在于etcd中。我试过这个:_,err=kapi.Get(context.Background(),key,nil)iferr!=nil{returnerr}else{...但即使键不在集群中,错误也总是nil。知道我在这里做错了什么吗?或者是否有任何其他API调用? 最佳答案 如果你在这里使用goclientv3KV客户端:https://godoc.org/go.etcd.io/etcd/clientv3#KV它返回以下类型:https://godoc.org/go.etc

go - 在本地使用 k8s go-client 连接到集群

我想运行GoK8S客户端库并使用我本地定义的kubeconfig连接到集群mac下/Users/i0334456/.kube/config错误是:#k8s-go-client/vendor/k8s.io/client-go/restvendor/k8s.io/client-go/rest/request.go:598:31:notenoughargumentsincalltowatch.NewStreamWatcherhave(*versioned.Decoder)want(watch.Decoder,watch.Reporter)这是我尝试使用的程序packagemainimport