草庐IT

topic-subscriber

全部标签

kafka中topic、partition、broker、consumerGroup、consumer之间的关系、区别及存在意义

概念理解topic:逻辑概念,用于联系Producer和Consumer的message生产和消费。Producer生产的消息放入一个topic中,由Consumer通过对同一个topic的订阅进行消费broker:物理资源,一般一个broker指底层的一台物理服务器。partition:逻辑分区存储,用于将topic在不同的物理资源上进行逻辑存储。实际Producer放入topic的消息,会存入不同broker上的partition中。其特点如下:一个topic默认只有一个partition,但是可以手动扩充partition数量。因此partition可以理解为最细I粒度的topic。由于

logstash读取kafka所有topics 自动创建es 索引

logstash读取kafka的topics,根据内容提取指定字段然后自动创建es索引。input{ kafka{   bootstrap_servers=>"192.168.1.15:9092"   auto_offset_reset=>"latest"   topics_pattern=>"svc.*"#topics_pattern支持正则匹配,topics不支持   consumer_threads=>5   codec=>"json" }}filter{  mutate{#    gsub=>[#     "fieldname","#","-"#    ]用于替换指定字符    spl

理解ROS Topic 通信频率背后的机制

Topic是ROS的三种通信方式中最为基本、也是常用的一种。本文对于ROS的Topic通信背后的数据吞吐机制做一个较为详细、深入的介绍。PublisherROS中发布一个topic的函数是这样的ros::Publisheradvertise(conststd::string&topic,uint32_tqueue_size,boollatch=false);Parameters:topic: Topictoadvertiseonqueue_size: Maximumnumberofoutgoingmessagestobequeuedfordeliverytosubscriberslatch:

Debezium系列之:使用Debezium2.X采集PostgreSQL15数据库到Kafka Topic,创建具有数据采集权限的账号

Debezium系列之:使用Debezium采集PostgreSQL数据库到KafkaTopic,创建具有数据采集权限的账号一、需求背景二、安装PostgreSQL15数据库详细步骤三、设置PostgreSQL数据库逻辑复制四、创建PostgreSQL数据库采集账号五、创建SCHEMA和表六、提交DebeziumConnector七、核心参数详解八、DebeziumUI查看Connector状态九、插入数据十、查看生成的表级别Topic十一、多张表数据发往同一个Topic十二、消费表级别Topic查看数据一、需求背景需要使用DebeziumConnector实时采集PostgreSQL数据库的

大数据之使用Flink消费Kafka中topic为ods_mall_data的数据,根据数据中不同的表将数据分别分发至kafka的DWD层

目录前言题目:一、读题分析二、处理过程三、重难点分析总结 前言本题来源于全国职业技能大赛之大数据技术赛项赛题-电商数据处理-实时数据处理注:由于设备问题,代码执行结果以及数据的展示无法给出,可参照我以往的博客其中有相同数据源展示题目:  提示:以下是本篇文章正文内容,下面案例可供参考(使用Scala语言编写) 一、读题分析涉及组件:Scala,Flink,Kafka,json涉及知识点:Flink处理数据Flink1.14新特性json文件的处理二、处理过程 --代码仅供参考--importorg.apache.flink.api.common.eventtime.WatermarkStrat

Kafka某个Topic无法消费问题

问题描述12月28日,公司测试环境Kafka的task.build.metadata.flow这个topic突然无法消费。其他topic都正常使用,这个topic只有一个分区,并且只有一个消费者查找问题原因首先登录服务器,运行kafka的cli命令,查看消费者组的详情。#进入kafka安装目录下的bin目录执行./kafka-consumer-groups.sh--bootstrap-server127.0.0.1:9092--describe--group消费者组名称由上图可以发现,task.build.metadata.flow这个topic,最新offset是2,但是当前offset只到

Kafka某个Topic无法消费问题

问题描述12月28日,公司测试环境Kafka的task.build.metadata.flow这个topic突然无法消费。其他topic都正常使用,这个topic只有一个分区,并且只有一个消费者查找问题原因首先登录服务器,运行kafka的cli命令,查看消费者组的详情。#进入kafka安装目录下的bin目录执行./kafka-consumer-groups.sh--bootstrap-server127.0.0.1:9092--describe--group消费者组名称由上图可以发现,task.build.metadata.flow这个topic,最新offset是2,但是当前offset只到

Kafka如何彻底删除topic及数据

我的kafka是CDH安装的默认目录 /opt/cloudera/parcels/KAFKA-4.1.0-1.4.1.0.p0.41、停止生产和消费程序。否则topic的offset信息会一直在broker更新。调用kafkadelete命令则无法删除该topic。取消自动创建topic,设置auto.create.topics.enable=false。2、server.properties设置delete.topic.enable=true,否则调用kafka的delete命令无法真正将topic删除,会显示(markedfordeletion)3、调用kafka命令:查看topic是否存

《Kafka系列》Offset Explorer连接Kafka问题集合,Timeout expired while.. topic metadata,Uable to find any brokers

OffsetExplorer连接Kafka问题集合,(Timeoutexpiredwhilefetchingtopicmetadata),(Uabletofindanybrokers)一、Timeoutexpiredwhilefetchingtopicmetadata1.OffsetExplorer配置好zookeeper的连接地址后2.在查看Topics的时候,报错Timeoutexpiredwhilefetchingtopicmetadata3.排查发现应该是kafka的server.properties文件中的advertised.listeners问题修改前是advertised.li

Cloud computing application development Topic | Cloud computing

云计算专题目录Catalogue|CloudcomputingCloudcomputingapplicationdevelopmentTopic|Cloudcomputing云计算专题目录SingleChoiceCompletionT&FitemsSAQs此文章为试读文章,阅读试读专栏SingleChoice1、在linux中。系统默认的_____用户对整个系统拥有完全的控制权。A.rootB.guestC.administratorD.supervistor【答案】A2、当登陆linux时,一个具有唯一进程ID号的shell将被调用,这个ID是_____。A.NIDB.PIDC.UIDD.C