草庐IT

apache - 使用 apache flume 将数据流式传输到 hbase

我正在尝试使用apacheflume将数据加载到hbase中。当我使用水槽将数据流式传输到hadoop时,它工作正常。但是当我启动水槽代理将数据加载到hbase时,我得到了NoClassDefFoundError。14/05/1223:14:10INFOnode.PollingPropertiesFileConfigurationProvider:Reloadingconfigurationfile:agent4.conf14/05/1223:14:10INFOconf.FlumeConfiguration:Processing:sink114/05/1223:14:10INFOcon

java - 使用拦截器运行 flume agent 时出错

我正在尝试使用Linux从终端运行自定义水槽代理。我正在研究clouderaVM。命令运行水槽看起来像:flume-ngagent--conf.-fspoolDirLocal2hdfs_memoryChannel.conflume.root.logger=DEBUG,console-nAgent5带有拦截器的源代码如下:Agent5.sources.spooldir-source.interceptors=i1Agent5.sources.spooldir-source.interceptors.i1.type=org.flumefiles.flume.HtmlInterceptor$

hadoop - Flume - 有没有办法将 avro 事件(标题和正文)存储到 hdfs 中?

水槽的新手...我正在接收avro事件并将它们存储到HDFS中。我知道默认情况下只有事件的主体存储在HDFS中。我也知道有一个avro_eventserializer.但是我不知道这个序列化器到底在做什么?它如何影响接收器的最终输出?此外,我不知道如何将事件转储到HDFS中以保留其header信息。我需要编写自己的序列化程序吗? 最佳答案 事实证明,序列化程序avro_event确实将header和正文都存储在文件中。这是我设置水槽的方式:a1.sinks.i1.type=hdfsa1.sinks.i1.hdfs.path=hdfs

hadoop - Flume 使用 ec2 实例 IAM 凭证汇入 s3

我有一个水槽,用于将数据写入awss3存储桶。Flume配置如下aggregator.sinks.s3LogSink.type=hdfsaggregator.sinks.s3LogSink.channel=flumeLogAgentFileChannelaggregator.sinks.s3LogSink.hdfs.path=s3n://aggregator.sinks.s3LogSink.hdfs.fileType=DataStreamaggregator.sinks.s3LogSink.hdfs.writeFormat=Textaggregator.sinks.s3LogSink.

hadoop - 每小时将推文保存到单个 Flume 数据文件的 flume.conf 参数应该是多少?

我们将推文保存在目录顺序中,例如/user/flume/2016/06/28/13/FlumeData...。但每小时它会创建超过100个FlumeData文件。我更改了TwitterAgent.sinks.HDFS.hdfs.rollSize=52428800(50mb)同样的事情又发生了。之后我也尝试更改rollcount参数但没有成功。我如何设置参数以每小时获取一个FlumeData文件。 最佳答案 rollInterval怎么样?你把它设置为零了吗?如果是,那么问题可能出在其他地方。如果rollInterval设置为某个值,

excel - flume 加载 csv 文件优于 hdfs sink

我已将我的Flume源配置为Spooldir类型。我有很多CSV文件,.xl3和.xls,我希望我的Flume代理将所有文件从spooldir加载到HDFS接收器。但是flume代理返回异常这是我的水槽源配置:agent.sources.s1.type=spooldiragent.sources.s1.spoolDir=/my-directoryagent.sources.s1.basenameHeader=trueagent.sources.batchSize=10000和我的HDFS接收器:agent.sinks.sk1.type=hdfsagent.sinks.sk1.hdfs.

hadoop - 如何通过Java代码更改Apache flume的配置文件?

我目前正在从事一个大数据项目,用于对Twitter的热门话题进行情绪分析。跟着cloudera的教程,明白了如何通过flume把tweets传到Hadoop上。http://blog.cloudera.com/blog/2012/09/analyzing-twitter-data-with-hadoop/水槽配置文件:#LicensedtotheApacheSoftwareFoundation(ASF)underone#ormorecontributorlicenseagreements.SeetheNOTICEfile#distributedwiththisworkforadditi

json - Hive SerDe 使用 JSON 推文返回错误 Flume

我正在使用Flume收集推特流数据并将其以JSON格式存储在HDFS中。我正在尝试使用HiveSerDe将此推特数据放入Hive表中,但我遇到了一个非常令人沮丧的错误。hive>ADDJARfile:////home/ubuntu/hive/lib/hive-serdes-1.0-SNAPSHOT.jar;Added[file:////home/ubuntu/hive/lib/hive-serdes-1.0-SNAPSHOT.jar]toclasspathAddedresources:[file:////home/ubuntu/hive/lib/hive-serdes-1.0-SNAP

hadoop - 如何使用Flume将数据实时写入HDFS?

我正在使用Flume将传感器数据存储在HDFS中。一旦通过MQTT接收到数据。订阅者将JSON格式的数据发布到FlumeHTTP监听器。它目前工作正常,但问题是水槽在我停止它之前不会写入HDFS文件(或者文件大小达到128MB)。我正在使用Hive在读取时应用模式。不幸的是,生成的配置单元表仅包含1个条目。这是正常的,因为Flume没有将新的数据写入文件(由Hive加载)。有什么方法可以强制Flume以近乎实时的方式将即将到来的新数据写入HDFS?所以,我不需要重新启动它或使用小文件?hereismyflumeconfiguration:#Namethecomponentsonthis

hadoop - 使用 Flume 和 Hadoop 的数据摄取不起作用

我使用的是Flume1.4.0和Hadoop2.2.0。当我启动Flume并写入HDFS时,出现以下异常:(SinkRunner-PollingRunner-DefaultSinkProcessor)[ERROR-org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:460)]processfailedjava.lang.VerifyError:classorg.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$RenewLeas