草庐IT

hadoop - 使用水槽将文件从假脱机目录移动到 HDFS

我正在为我公司的POC实现一个小型hadoop集群。我正在尝试使用Flume将文件导入HDFS。每个文件都包含这样的JSON对象(每个文件1个“长”行):{"objectType":[{JSONObject},{JSONObject},...]}“objectType”是数组中对象的类型(例如:事件、用户...)。这些文件稍后将根据“objectType”由多个任务处理。我正在使用spoolDir源和HDFS接收器。我的问题是:是否可以在flume写入HDFS时保留源文件名(文件名是唯一的,因为它们的名称中包含时间戳和UUID)有没有办法将“deserializer.maxLineLe

hadoop - 如果输入文件有任何变化,Flume 将日志写入 hdfs

我是ApacheFlume的新手,我有一个用例,其中有一个定期更新的输入文件“sample.txt”,它最初包含以下数据NameAgeSexAddressxxx20MChennai有时它会更新为NameAgeSexAddressYYY25FSalemZZZ18MCovai每当输入文件发生变化时,我希望使用Apacheflume将该文件写入hdfs。任何人都可以建议我链接或者任何人都可以告诉我如何实现这一目标 最佳答案 您可以将flumetail视为来源。我正在指向一些url。请引用它们。http://www.rittmanmead.

hadoop - 配置 flume 在将数据下沉到 hdfs 时不生成 .tmp 文件

我正在使用flume将数据从服务器日志流式传输到hdfs。但是当数据流式传输到hdfs时,它首先创建.tmp文件。在配置中是否有一种方法可以隐藏.tmp文件,或者可以通过附加.tmp文件来更改名称。在前。我的收集代理文件看起来像-##TARGETAGENT####configurationfilelocation:/etc/flume/conf##STARTAgent:flume-ngagent-cconf-f/etc/flume/conf/flume-trg-agent.conf-ncollector#http://flume.apache.org/FlumeUserGuide.ht

hadoop - Flume 创建小文件

我正在尝试使用水槽从本地系统将我的文件移动到hdfs中,但是当我运行我的水槽时,它会创建许多小文件。我的原始文件大小为154-500Kb,但在我的HDFS中它创建了许多大小为4-5kb的文件。我搜索并了解到更改rollSize和rollCount会起作用我增加了值但仍然发生同样的问题。我也遇到了以下错误。错误:ERRORhdfs.BucketWriter:Hitmaxconsecutiveunder-replicationrotations(30);willnotcontinuerollingfilesunderthispathduetounder-replication因为我在集群中

hadoop - Flume 将数据从 MySQL 迁移到 Hadoop

请分享您的想法。需求是将MySQL数据库中的数据迁移到Hadoop/HBase中进行分析。数据应实时或接近实时迁移。水槽可以支持这个吗?什么是更好的方法。 最佳答案 据我了解,Flume并非为此而生。Flume基本上用于读取数据源(平面文件)之类的日志,并将它们以结构化的方式推送到接收器。Sqoop可以用,试试看http://archive.cloudera.com/cdh/3/sqoop/SqoopUserGuide.html 关于hadoop-Flume将数据从MySQL迁移到Had

hadoop - 使用 Flume 将数据从 kafka 提取到 HDFS::ConfigurationException:必须指定引导服务器

我正在尝试使用水槽将数据从kafka源提取到hdfs。下面是我的水槽配置文件。flume1.sources=kafka-source-1flume1.channels=hdfs-channel-1flume1.sinks=hdfs-sink-1flume1.sources.kafka-source-1.type=org.apache.flume.source.kafka.KafkaSourceflume1.sources.kafka-source-1.bootstrap.servers=localhost:9092flume1.sources.kafka-source-1.zookee

hadoop - sink.hdfs writer 在我的文本文件中添加垃圾

我已成功配置flume以将文本文件从本地文件夹传输到hdfs。我的问题是当这个文件被传输到hdfs时,一些不需要的文本“hdfs.write.Longwriter+binarycharacters”在我的文本文件中有前缀。这是我的flume.confagent.sources=flumedumpagent.channels=memoryChannelagent.sinks=flumeHDFSagent.sources.flumedump.type=spooldiragent.sources.flumedump.spoolDir=/opt/test/flume/flumedump/age

azure - HDFS ls 在 Flume 写入文件时显示文件大小为 0

我们目前正在设置一个ApacheFlume系统,该系统收集事件数据并将其写入我们的HDInsightHDFS集群中的文件。在验证初始设置时,hdfsls在Flume写入文件时显示文件大小为0,但是当文件滚动(并且删除了.tmp文件扩展名)时,文件大小突然跳起来。在Flume写入文件时,HDFS或HDInsight(或WASB)是否有某种原因导致文件的文件大小为0。 最佳答案 这可能是由于HDFS一致性模型。在向HDFS执行写入时,一旦写入了超过一个block的数据,第一个block将对新读者。后续block也是如此:它始终是当前bl

hadoop - 如何在故障转移模式下配置 Flume 1.x (flume-ng)?

有大量关于在CDH3中以故障转移模式配置Flume(0,9x)节点的信息。但是CDH4中Flume(1.x)配置的配置格式完全不同。如何在故障转移模式下配置Flume1.x(flume-ng)? 最佳答案 在flume-ng中,您可以定义一组所谓的“接收器”(事件消费者),它们都连接到一个channel,并为该组指定“故障转移”策略,因此如果其中一个接收器发生故障,事件将被重定向到另一个。假设我们有两个接收器-ma​​in_sink和backup_sink,并且都配置为使用来自一个channel的事件并将事件传送到某个目的地。我们将

java - 如何从 java 代码启动 Flume 代理

我在centos6.5中使用hadoop1.2.1稳定版并使用apacheflume1.x我正在运行flume代理并在hdfs中收集推文我的flume.conf是TwitterAgent.sources=TwitterTwitterAgent.channels=MemChannelTwitterAgent.sinks=HDFSTwitterAgent.sources.Twitter.type=com.cloudera.flume.source.TwitterSourceTwitterAgent.sources.Twitter.channels=MemChannelTwitterAgen