草庐IT

KAFKA_HOME

全部标签

hadoop - 使用 Flume 将数据从 kafka 提取到 HDFS::ConfigurationException:必须指定引导服务器

我正在尝试使用水槽将数据从kafka源提取到hdfs。下面是我的水槽配置文件。flume1.sources=kafka-source-1flume1.channels=hdfs-channel-1flume1.sinks=hdfs-sink-1flume1.sources.kafka-source-1.type=org.apache.flume.source.kafka.KafkaSourceflume1.sources.kafka-source-1.bootstrap.servers=localhost:9092flume1.sources.kafka-source-1.zookee

hadoop - Kafka 控制台生产者丢失消息

我正在使用下面的kafka控制台生产者命令将文件的内容传递给kafka生产者。sh~/KAFKA_HOME/bin/kafka-console-producer.sh--broker-listxxx:9092,yyy:9092,zzz:9092--topicHistLoad--new-producerData.csv文件有大约700,000条记录。我在消费者输出端仅收到大约699,800条消息。我检查了消费者的偏移计数器,根据偏移值,它在队列中只有699,800条消息。你能帮我弄清楚是什么导致了这个丢失消息的问题吗?我需要检查什么才能找到根本原因。 最佳答案

消息队列——kafka基础

KafKa首先自然是要列出Kafka官网地址啦:https://kafka.apache.org/概述定义Kafka是一个分布式的---基于发布/订阅模式的消息队列(MessageQueue),主要应用于大数据实时处理领域。发布/订阅模式​原文链接:https://blog.csdn.net/tjvictor/article/details/5223309​定义了一种一对多的依赖关系,让多个订阅者对象同时监听某一个主题对象。这个主题对象在自身状态变化时,会通知所有订阅者对象,使它们能够自动更新自己的状态。​将一个系统分割成一系列相互协作的类有一个很不好的副作用,那就是需要维护相应对象间的一致性

java - 无法构建 piggybank ->/home/build/ivy/lib 不存在

嘿,我按照这里的步骤操作:http://wiki.apache.org/pig/PiggyBank构建存钱jar,但我不断得到下面的输出。我还从源代码构建了pig项目,并在我的.bash_profile中引用了它:cloudera@cloudera-demo:~/piggybank/java$./makepiggy.shBuildfile:/home/cloudera/piggybank/java/build.xmldownload-hive-deps:init:compile:[echo]***CompilingPigUDFs***[javac]/home/cloudera/pigg

java - 基于HADOOP_HOME自动加载HDFS Configuration?

我正在开发一个Java程序来与已经运行的hadoop集群交互。该程序已将HADOOP_HOME作为环境变量传递给它。基于这个值,我需要在开始与HDFS/MapReduce交互之前加载所有必要的配置资源。我认为我需要的文件基于apachedocumentation.我当前的解决方案如下所示:finalStringHADOOP_HOME=System.getEnv("HADOOP_HOME");Configurationconf=newConfiguration();conf.addResource(newPath(HADOOP_HOME,"src/core/core-default.xm

hadoop - 找不到 hadoop 安装 : $HADOOP_HOME must be set or hadoop must be in the path

所以有点背景。我一直在尝试在CentOS6机器上设置Hive。我按照这个Youtube视频的说明操作:http://www.youtube.com/watch?v=L2lSrHsRpOI就我而言,我使用的是Hadoop-1.1.2和Hive0.9.0,本视频中所有标有“mnt”的目录我都将其替换为“opt”,因为这是我所有的hadoop和hive包的位置被打开了。当我到达视频中实际上应该通过“./hive”运行Hive的部分时弹出此错误:"Cannotfindhadoopinstallation:$HADOOP_HOMEmustbesetorhadoopmustbeinthepath"

java - APACHE HADOOP 版本 2.8.0 的 HADOOP_HOME 和 PIG_CLASSPATH 的正确值是多少?

我在从PIG命令行执行Hadoop命令时遇到问题。命令和错误堆栈在下面我的导师怀疑这是因为HADDOP_HOME和PIG_CLASSPATH不正确。我使用的是HADOOP2.8.0版。所以,最初我有HADOOP_HOME作为HADOOP_HOME=/hadoop/2.8.0/然后我切换了以下设置:HADOOP_HOME=/hadoop/2.8.0/libexec/etc/hadoopPIG_CLASSPATH定义为$HADOOP_HOME我在pig中使用的命令:A=LOAD'/Users/anarinsky/Downloads/loaddata1.txt';B=MAPREDUCE'/U

Kafka的消息可以被删除吗?如果可以,有哪些删除策略?Kafka如何保证消息的有序性?Kafka和其他消息中间件(如ActiveMQ、RabbitMQ)的区别是什么?Kafka的消费者组是什么?它的

1、Kafka的消息可以被删除吗?如果可以,有哪些删除策略?在Kafka中,消息一旦被写入到分区中,就不可以被直接删除。这是因为Kafka的设计目标是实现高性能的消息持久化存储,而不是作为一个传统的队列,所以不支持直接删除消息。然而,Kafka提供了消息的过期策略来间接删除消息。具体来说,可以通过设置消息的过期时间(TTL)来控制消息的生命周期。一旦消息的时间戳超过了设定的过期时间,Kafka会将其标记为过期,并在后续的清理过程中删除这些过期的消息。Kafka的清理过程由消费者组中的消费者来执行。消费者消费主题中的消息,并将消费的进度提交到Kafka。一旦消息被提交,Kafka就可以安全地删除

Hadoop 将 HADOOP_HOME 正确设置为 bin/hadoop 它会给出未找到的命令

安装hadoop并将HADOOP_HOME设置为/usr/local/hadoop/bin/hadoop后,当通过在终端中键入hadoop运行hadoop时,它说我没有权限。然后我尝试用sudo运行它然后它说,sudo:commandnotfound 最佳答案 HADOOP_HOME应该指向/usr/local/hadoop。如果您只想在终端中输入hadoop,您必须将它添加到全局路径变量中。为此,在/home/hadoopuser/.bashrc中添加以下行:exportHADOOP_HOME=/usr/local/hadoope

hadoop - 无法创建目录/home/hadoop/hadoopinfra/hdfs/namenode/current

我得到了错误Cannotcreatedirectory/home/hadoop/hadoopinfra/hdfs/namenode/current尝试在本地Mac上安装hadoop时。这可能是什么原因?仅供引用,我将我的xml文件放在下面:mapred-site.xml:mapreduce.framework.nameyarnhdfs-site.xml:dfs.replication1dfs.name.dirfile:///home/hadoop/hadoopinfra/hdfs/namenodedfs.data.dirfile:///home/hadoop/hadoopinfra/h