草庐IT

hadoop - Flume: kafka channel 和 hdfs sink get unable to deliver event 错误

我想尝试这个新的Flafka流程:只使用kafkachannel将数据传输到hdfssink。我从更容易监控的kafkachannel和记录器接收器中尝试了它。我的配置文件是:#Namethecomponentsonthisagenta1.sinks=sink1a1.channels=channel1a1.channels.channel1.type=org.apache.flume.channel.kafka.KafkaChannela1.channels.channel1.brokerList=localhost:9093,localhost:9094a1.channels.cha

hadoop - Python 中的 Flume 拦截器

我完全没有使用Java的经验。谁能告诉我是否有任何方法可以用Python编写flume拦截器?下面是它的Java实现:https://thisdataguy.com/2014/02/07/how-to-build-a-full-flume-interceptor-by-a-non-java-developer/ 最佳答案 不,flume没有Python拦截器或将数据流出到进程的概念,类似于MapReduceStreaming或SparkStreaming。原因之一是Flume事件有点复杂,它有标题和正文的概念。很难将您的事件流式传输

hadoop - 使用 Apache Flume 收集 CPU 时间日志

我是hadoop和学习apacheFlume的新手。我在Virtualbox上安装了CDH4.7。下面的命令将输出最高的cputime。如何使用Apacheflume将以下命令的日志数据输出传输到我的HDFS?如何创建flume配置文件?user@computer-Lenovo-IdeaPad-S510p:$dstat-ta--top-cputime----system--------total-cpu-usage-----dsk/total--net/total----paging-----system----highest-total--time|usrsysidlwaihiqsi

hadoop - Flume-ng:从本地复制日志文件到HDFS的源路径和类型

我正在尝试使用flume-ng将一些日志文件从local复制到HDFS。source是/home/cloudera/flume/weblogs/而sink是hdfs://localhost:8020/flume/转储/。一个cron作业会将日志从tomcat服务器复制到/home/cloudera/flume/weblogs/我想在文件可用时将日志文件复制到HDFS在/home/cloudera/flume/weblogs/中使用flume-ng。下面是我创建的conf文件:agent1.sources=localagent1.channels=MemChannelagent1.sin

hadoop - Flume 在连续 2048 个字符后添加换行符

我有一个在Ubuntu工作站上运行的Flume1.5代理程序,它从各种设备收集日志并将日志重新格式化为一个逗号分隔的文件,其中包含很长的行。在日志的收集和重新格式化之后,它们被放置在假脱机目录中,Flume代理将日志文件发送到运行Flume代理的Hadoop服务器以接受日志文件并将它们放置在HDFS目录中。一切正常,除了当Flume将文件发送到HDFS目录时,每行中每2048个字符后有换行符。下面是我的水槽配置文件。是否有设置告诉flume不插入换行符?#OnUbuntuWorkstation#listsources,sinksandchannelsintheagentagent.so

regex - 将正则表达式应用于解释器 Flume 配置中 "|"分隔字符串中的第二个单词

我的要求是对来自kafka的数据应用正则表达式。数据如下:abc|def|mnq|xyzabc1|def1|mnq1|xyz1abc2|def2|mnq2|xyz2我想使用水槽解释器对第一个字符串中的第二个单词应用正则表达式,即(def)。正则表达式可以过滤单词和小数。有人可以帮忙吗。 最佳答案 以下python代码匹配所有行中的所有第二个单词:importre#used||toaddmultilinescombineintoonestringparent="""abc|def|mnq|xyz||abc1|def1|mnq1|xyz

hadoop - Flume 与 SLF4J : Class path contains multiple SLF4J bindings 冲突 hadoop

每次启动Flume时,我都会在Flume、Hive和Hadoop之间收到此消息。避免这种情况的最佳方法是什么?我正在考虑从flumelib目录中删除一个jar,但不确定这是否会影响其他(hive、hadoop)。Info:Sourcingenvironmentconfigurationscript/usr/local/flume/conf/flume-env.shInfo:IncludingHadooplibrariesfoundvia(/usr/local/hadoop/bin/hadoop)forHDFSaccess+exec/usr/java/jdk1.7.0_79/bin/ja

hadoop - 当 rolloverSize 设置为 150 MB 时,每隔几秒就会刷新一次 Flume 消息

我创建了一个flume管道,使用flume将数据从Kafka移动到HDFS。我已将rolloverSize设置为150MB,它可以正确滚动。但是我希望将消息频繁写入HDFS文件,而不是将所有消息一次性写入,即目前消息保存在缓冲区中,并在达到150MB大小时刷新。基本上,我想以近乎实时的方式将消息写入HDFS,并在达到150MB时翻转文件。我尝试设置batchSize属性,但没有太大帮助。上面的需求是否可以在flume中实现? 最佳答案 hdfs.rollInterval是你应该在你的flumeconf中设置的。此参数使Flume每隔

hadoop - 数据从 Kafka 流向 HDFS 时,Flume 空间不足错误

我们正在努力处理从Kafka到由Flume管理的HDFS的数据流。由于下述异常,数据未完全传输到hdfs。然而这个错误看起来误导了我们,我们在数据目录和hdfs中都有足够的空间。我们认为这可能是channel配置的问题,但我们对其他来源也有类似的配置,并且对它们工作正常。如果有人必须处理这个问题,我将不胜感激。17Aug201714:15:24,335ERROR[Log-BackgroundWorker-channel1](org.apache.flume.channel.file.Log$BackgroundWorker.run:1204)-Errordoingcheckpointj

hadoop - Flume 不接受 Twitter 流的关键字

这里是Hadoop新手,使用本教程:https://acadgild.com/blog/streaming-twitter-data-using-flume/捕捉推文。这是我的flume.conf文件:TwitterAgent.sources=TwitterTwitterAgent.channels=MemChannelTwitterAgent.sinks=HDFSTwitterAgent.sources.Twitter.type=org.apache.flume.source.twitter.TwitterSourceTwitterAgent.sources.Twitter.cons