草庐IT

KAFKA_HOME

全部标签

hadoop - 将 jars 复制到/home/hadoop/lib emr 时出错

我正在将我的外部jar复制到emr中的/home/hadoop/lib目录作为bootstrap进程。但是它在引导过程中显示以下错误Exceptioninthread"main"java.lang.IncompatibleClassChangeError:classcom.google.common.cache.CacheBuilder$3hasinterfacecom.google.common.base.Tickerassuperclassatjava.lang.ClassLoader.defineClass1(NativeMethod)atjava.lang.ClassLoade

hadoop - 使用水槽的kafka channel 中的动态主题

是否有可能有一个带有动态主题的kafkachannel-比如可以在其中指定主题header的kafka接收器,或者可以在其中使用header中的值的HDFS接收器?我知道我可以多路复用以使用多个channel(具有一堆channel配置),但这是不可取的,因为我希望有一个动态HDFS接收器,而不是每个kafkachannel都有一个HDFS接收器。 最佳答案 我的理解是FlumeKafkachannel只能映射到单个主题,因为它同时生成和使用该特定主题的日志。查看Flume1.6.0的KafkaChannel.java中的代码,我可

【大数据】kafka

文章目录【后端目录贴】1.定义2.消息队列2.1使用消息队列的好处2.2消息队列的两种模式3.Kafka基础架构4.kafka使用4.1jar包下载(0.11.0.0版本)4.2部署5.Kafka架构深入5.1Kafka工作流程及文件存储机制5.1.1Kafka工作流程5.1.2Kafka文件存储机制5.2Kafka生产者5.2.1分区策略5.2.2数据可靠性保证5.2.2.1副本数据同步策略5.2.2.2ISR5.2.2.3ack应答机制5.2.2.4故障处理细节5.2.3ExactlyOnce语义5.3Kafka消费者5.3.1消费方式5.3.2分区分配策略5.3.3offset的维护【后

hadoop - 使用接收器和 WAL 的 Spark Kafka 集成

我正在阅读下面的Databricks博客https://databricks.com/blog/2015/03/30/improvements-to-kafka-integration-of-spark-streaming.html在解释sparkkafka集成如何使用接收器和WAl工作的过程时,它说1.TheKafkadataiscontinuouslyreceivedbyKafkaReceiversrunningintheSparkworkers/executors.Thisusedthehigh-levelconsumerAPIofKafka.2.Thereceiveddatai

hadoop - 只有一个文件从带有水槽的kafka到hdfs

我正在尝试通过水槽将数据从kafka放入hdfs。kafka_producer每10秒发送一条消息。我会在hdfs上的一个文件中收集所有消息。这是我使用的flume配置,但它在hdfs上存储了很多文件(一个用于消息):agent1.sources.kafka-source.type=org.apache.flume.source.kafka.KafkaSourceagent1.sources.kafka-source.zookeeperConnect=localhost:2181agent1.sources.kafka-source.topic=provaagent1.sources.

bash - Ubuntu Hadoop 找不到 JAVA_HOME

echo$JAVA_HOME给我/usr/lib/jvm/java-8-oracle我在/usr/local/hadoop/etc/hadoop/hadoop-env.sh中有exportJAVA_HOME=/usr/lib/jvm/java-8-oracle。但是,当我运行/usr/local/hadoop/bin/hadoop时,出现以下错误:/usr/local/hadoop/etc/hadoop/hadoop-env.sh:line25:export:`/usr/lib/jvm/java-8-oracle':notavalididentifierError:JAVA_HOMEi

【软件开发/设计】分布式架构中的组件(如Kafka、MongoDB和Nginx)如何进行容器化部署

【软件开发/设计】分布式架构中的组件(如Kafka、MongoDB和Nginx)如何进行容器化部署方式一容器化部署的一般步骤Nginx、MongoDB、Kafka容器化部署示例1.Nginx2.MongoDB3.Kafka容器化部署的优势方式二1.Nginx部署创建Deployment创建ServiceNginx和ConfigMap总结应用配置2.MongoDB部署创建StatefulSet创建ServiceMongoDB和ConfigMap应用配置3.Kafka部署使用Helm1.验证Kafka安装2.查看Helm安装的说明3.连接到Kafka4.使用Kafka5.Kafka客户端配置6.监

hadoop - 将kafka的Spark批量流式传输到单个文件中

我正在使用批处理流(maxRatePerPartition10.000)从Kafka流式传输数据。因此,在每批处理中,我处理10.000条kafka消息。在这个批处理运行中,我通过从rdd中创建一个数据帧来处理每条消息。处理后,我使用以下方法将每个处理过的记录保存到同一个文件:dataFrame.write.mode(SaveMode.append)。因此它将所有消息附加到同一个文件。只要它在一个批处理运行中运行就可以。但是在执行下一个批处理运行(处理下10.000条消息)后,它会为下一个10.000条消息创建一个新文件。现在的问题是:每个文件(block)保留文件系统的50mb,但只

hadoop - 如何在hadoop集群中安装kafka

我想在包含1个主节点和4个数据节点的ubuntuHadoop集群上安装最新版本的Kafka。这是我的问题:ShouldkafkabeinstalledonallthemachinesoronlyonNameNodemachine?Whataboutzookeeper?ShoulditbeinstalledonallthemachinesoronlyonNameNodemachine?请分享在Hadoop5节点集群中安装kafka和Zookeeper所需的文档 最佳答案 架构严格基于您的要求和您所拥有的:您的机器有多强大,它们需要处理

hadoop - 根据 Kafka 的消息数据写入自定义 HDFS 目录 -> Flume -> hdfs 摄取

如何根据Kafka消息中的消息类型使用水槽写入自定义hdfs目录?说kafka消息:{"type":"A","data":"blah"}在类型字段中有"A"应该写入/data/A,message:{"type":"B","data":"blah"}在类型字段中有"B"应该写入/data/B等 最佳答案 我认为您需要自定义水槽。ApacheFlumecustomsink 关于hadoop-根据Kafka的消息数据写入自定义HDFS目录->Flume->hdfs摄取,我们在StackOver