草庐IT

hadoop - 使用 cloudera quickstart 的 Flume Avro Sink Source

是否可以在Cloudera-Quickstart-CDH-VM中使用AvroSink/Source设置FlumeClient-Collector-Structure?我知道没有实际用途,但是我想了解Flume如何与Avro文件一起使用以及我以后如何将它们与PIG等一起使用。它尝试了几种配置,但没有一种有效。对我来说,我似乎需要多个代理,但虚拟机中只能有一个。我最后尝试的是:agent.sources=readeravro-collection-sourceagent.channels=memoryChannelmemoryChannel2agent.sinks=avro-forward

hadoop - Flume: kafka channel 和 hdfs sink get unable to deliver event 错误

我想尝试这个新的Flafka流程:只使用kafkachannel将数据传输到hdfssink。我从更容易监控的kafkachannel和记录器接收器中尝试了它。我的配置文件是:#Namethecomponentsonthisagenta1.sinks=sink1a1.channels=channel1a1.channels.channel1.type=org.apache.flume.channel.kafka.KafkaChannela1.channels.channel1.brokerList=localhost:9093,localhost:9094a1.channels.cha

hadoop - Flink bucketing sink 以保存点重启导致数据丢失

我正在使用Flinkbucketingsink从Kafka到HDFS。Flink的版本是1.4.2。我发现每次重新启Action业时都会丢失一些数据,即使有保存点也是如此。我发现如果我设置编写器SequenceFile.CompressionType.RECORD而不是SequenceFile.CompressionType.BLOCK就可以解决这个问题。看来Flink在保存checkpoint的时候,有效长度和实际长度不一样,应该包括压缩数据。但如果我们由于磁盘使用而无法使用CompressionType.BLOCK,则可能会出现问题。如何在重新启Action业时使用block压缩来

hadoop - Flume HDFS Sink Flush 和 Roll 的区别

我在Flume文档中遇到了HDFSSink的两个配置属性:hdfs.rollCountNumberofeventswrittentofilebeforeitrolled(0=neverrollbasedonnumberofevents)和hdfs.batchSizenumberofeventswrittentofilebeforeitisflushedtoHDFS我想知道这两个属性之间的区别,以及roll和flush的区别。在我看来它们看起来一样。 最佳答案 在HDFSSink中,roll表示关闭当前文件,将即将发生的事件写入新文件

excel - flume 加载 csv 文件优于 hdfs sink

我已将我的Flume源配置为Spooldir类型。我有很多CSV文件,.xl3和.xls,我希望我的Flume代理将所有文件从spooldir加载到HDFS接收器。但是flume代理返回异常这是我的水槽源配置:agent.sources.s1.type=spooldiragent.sources.s1.spoolDir=/my-directoryagent.sources.s1.basenameHeader=trueagent.sources.batchSize=10000和我的HDFS接收器:agent.sinks.sk1.type=hdfsagent.sinks.sk1.hdfs.

hadoop - 使用 Hive Sink 将水槽输出保存到 Hive 表

我正在尝试使用Hive配置flume,以将flume输出保存到HiveSink类型的hive表。我有单节点集群。我使用maprhadoop发行版。这是我的flume.confagent1.sources=source1agent1.channels=channel1agent1.sinks=sink1agent1.sources.source1.type=execagent1.sources.source1.command=cat/home/andrey/flume_test.dataagent1.sinks.sink1.type=hiveagent1.sinks.sink1.chan

c++ - 如何将 boost::iostreams::null_sink 用作 std::ostream

我想根据运行时给出的标志使我的输出详细/非详细。我的想法是,构建一个依赖于标志的std::ostream,例如:std::ostreamout;if(verbose){out=std::coutelse{//Redirectstdouttonullbyusingboost'snull_sink.boost::iostreams::stream_buffernull_out{boost::iostreams::null_sink()};//Somehowconstructastd::ostreamfromnullout}现在我坚持从这样一个boost流缓冲区构建一个std::ostrea

.net - Serilog Sinks Redis 是否支持 netcore 1.x?

我们正在开发对Redis日志记录的支持,我有两个dotnetwebapi项目,我们在其中写入Redis.List。在第一个项目(dotnet2.1.101)中,我们写入一个key并且工作正常。它出现在redis-commander和docker日志中。redis-commander|loadingkey".NETWebApi"from"redis:6379:0"redis-commander|loadingkeysbyprefix""在第二个项目(dotnet1.1.5)中,我们只看到redis-commander|loadingkeysbyprefix""redis-commande

scala - 使用 TCP 流并将其重定向到另一个 Sink(使用 Akka Streams)

我尝试使用Akka2.4.3将TCP流重定向/转发到另一个接收器。该程序应该打开一个服务器套接字,监听传入的连接,然后使用tcp流。我们的发件人不期望/接受我们的回复,所以我们从不发回任何东西——我们只是消费流。在构建tcp流之后,我们需要将字节转换为更有用的东西并将其发送到接收器。到目前为止,我尝试了以下方法,但我特别纠结于如何不将tcp数据包发送回发送方以及如何正确连接接收器的部分。importscala.util.Failureimportscala.util.Successimportakka.actor.ActorSystemimportakka.event.Loggingi

swift - swift 中的 Sink 协议(protocol)是什么?

Swiftheader的Sink协议(protocol)定义为protocolSink{typealiasElementfuncput(x:Element)}什么是Sink协议(protocol),它应该用于Swift和Cocoa设计模式?我唯一能说的实现这个协议(protocol)的是structIntEncoder:Sink{varasInt:UInt64varshift:UInt64funcput(x:CodeUnit)} 最佳答案 接收器(如“厨房水槽”)代表生产者/消费者对的消费者端。它是一个抽象接口(interface)