草庐IT

clickhouse-KAFKA

全部标签

java - 使用 Kafka Streams 开发时,Lib 上的 UnsatisfiedLinkError 会影响 DB dll

我正在我的开发Windows机器上编写KafkaStreams应用程序。如果我尝试使用KafkaStreams的leftJoin和branch功能,在执行jar应用程序时会出现以下错误:Exceptioninthread"StreamThread-1"java.lang.UnsatisfiedLinkError:C:\Users\user\AppData\Local\Temp\librocksdbjni325337723194862275.dll:Can'tfinddependentlibrariesatjava.lang.ClassLoader$NativeLibrary.load(

java - Kafka Connect 堆空间不足

启动KafkaConnect(connect-standalone)后,我的任务在启动后立即失败:java.lang.OutOfMemoryError:Javaheapspaceatjava.nio.HeapByteBuffer.(HeapByteBuffer.java:57)atjava.nio.ByteBuffer.allocate(ByteBuffer.java:335)atorg.apache.kafka.common.network.NetworkReceive.readFromReadableChannel(NetworkReceive.java:93)atorg.apac

java - 调试自定义 Kafka 连接器的简单有效方法是什么?

我正在使用几个Kafka连接器,我在控制台输出中没有看到它们的创建/部署有任何错误,但是我没有得到我正在寻找的结果(没有任何结果),期望或其他)。我根据Kafka的示例FileStream连接器制作了这些连接器,因此我的调试技术基于示例中使用的SLF4J记录器的使用。我搜索了我认为会在控制台输出中生成的日志消息,但无济于事。我是不是在错误的地方寻找这些消息?或者是否有更好的方法来调试这些连接器?我在实现中引用的SLF4J记录器的示例用法:KafkaFileStreamSinkTaskKafkaFileStreamSourceTask 最佳答案

java - 为kafka主题配置ACL

我有一个带有2个代理的不安全的kafka实例,在我决定为主题配置ACL之前,一切都运行良好,在ACL配置之后,我的消费者停止从Kafka轮询数据,并且我不断收到警告Errorwhilefetchingmetadatawithcorrelationid,我的代理属性如下所示:-listeners=PLAINTEXT://localhost:9092advertised.listeners=PLAINTEXT://localhost:9092authorizer.class.name=kafka.security.auth.SimpleAclAuthorizerallow.everyone

java - Kafka Java 消费者被标记为组死亡

我正在使用Java消费者来消费来自主题(kafka版本0.10.0.1)的消息,如果我在docker容器之外运行它们,它会正常工作。但是,当我在docker容器中执行它们时,这些组将被标记为已死亡并显示消息Markingthecoordinatorlocal.kafka.com:9092(id:2147483647rack:null)deadforgroupmy-group我的消费者配置如下:-metadata.max.age.ms=300000partition.assignment.strategy=[org.apache.kafka.clients.consumer.RangeA

java - 保证将多条消息传递到 Kafka 集群

如果我连续向Kafka集群发布多条消息(使用newProducerAPI),我会从生产者那里为每条消息获得一个Future。现在,假设我已将生产者配置为max.in.flight.requests.per.connection=1和retries>0我可以等待最后一个future并确定所有以前的也已经交付(并按顺序)?还是我需要等待所有future?在代码中,我可以这样做吗:Producerproducer=newKafkaProducer(myConfig);Futuref=null;for(MessageTypemessage:messages){f=producer.send(n

java - Kafka 流关闭并且不运行

大家早上好我正在尝试运行KafkaStream应用程序,但每次我尝试时,它都会按顺序启动和关闭。下面是控制台打印的结果[main]WARNorg.apache.kafka.clients.consumer.ConsumerConfig-Theconfiguration'admin.retries'wassuppliedbutisn'taknownconfig.[main]INFOorg.apache.kafka.common.utils.AppInfoParser-Kafkaversion:2.1.0[main]INFOorg.apache.kafka.common.utils.App

java - Apache Camel Kafka - 聚合 kafka 消息并定期发布到不同的主题

我有一个用例:我需要定期读取和聚合来自kafka主题的消息,然后发布到不同的主题。本地存储不是一个选项。这就是我计划解决这个问题的方式,欢迎提出任何改进建议为了调度kafka消息的聚合和发布,计划使用AggregatorEIP的completionInterval选项。这是代码。@AutowiredObjectMapperobjectMapper;JacksonDataFormatjacksonDataFormat;@PostConstructpublicvoidinitialize(){//objectMapper.setPropertyNamingStrategy(Property

java - Kafka Consumer如何从多个assigned Partition中消费

tl;dr;我试图了解分配了多个分区的单个消费者如何处理到达分区的消费记录。例如:在移动到下一个之前完全处理单个分区。每次从每个分区处理一大块可用记录。从第一个可用分区处理一批N条记录以循环方式处理来自分区的一批N条记录我找到了Ranged或RoundRobin分配器的partition.assignment.strategy配置,但这只决定了消费者如何分配分区,而不是它如何分配从分配给它的分区中消耗。我开始深入研究KafkaConsumer源代码并#poll()带我去#pollForFetches()#pollForFetches()然后带我到fetcher#fetchedRecor

java - Spring Kafka-用Producer Listener配置KafkaTemplate和用Listenable Future注册回调的区别

所以我在浏览Springkafka文档时遇到了ProducerListener。这是SpringKafka文档所说的-“可选地,您可以使用ProducerListener配置KafkaTemplate以获取包含发送结果(成功或失败)的异步回调,而不是等待Future完成。”他们还指定了接口(interface)-publicinterfaceProducerListener{voidonSuccess(Stringtopic,Integerpartition,Kkey,Vvalue,RecordMetadatarecordMetadata);voidonError(Stringtopi