我正在 Apache flink sql api 中构建管道。 管道进行简单的投影查询。但是,我需要在查询之前和查询之后再写一次元组(恰好是每个元组中的一些元素)。 事实证明,我用来写入 redis 的代码严重降低了性能。即 flink 以非常小的数据速率产生背压。 我的代码有什么问题,我该如何改进。请有任何建议。
当我停止向redis写入前后性能都非常出色。 这是我的管道代码:
public class QueryExample {
public static Long throughputCounterAfter=new Long("0");
public static void main(String[] args) {
int k_partitions = 10;
reamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
env.setParallelism(5 * 32);
Properties props = new Properties();
props.setProperty("zookeeper.connect", "zookeeper-node-01:2181");
props.setProperty("bootstrap.servers", "kafka-node-01:9092,kafka-node-02:9092,kafka-node-03:9092");
// not to be shared with another job consuming the same topic
props.setProperty("group.id", "flink-group");
props.setProperty("enable.auto.commit","false");
FlinkKafkaConsumer011<String> purchasesConsumer=new FlinkKafkaConsumer011<String>("purchases",
new SimpleStringSchema(),
props);
DataStream<String> purchasesStream = env
.addSource(purchasesConsumer)
.setParallelism(Math.min(5 * 32, k_partitions));
DataStream<Tuple4<Integer, Integer, Integer, Long>> purchaseWithTimestampsAndWatermarks =
purchasesStream
.flatMap(new PurchasesParser())
.assignTimestampsAndWatermarks(new BoundedOutOfOrdernessTimestampExtractor<Tuple4<Integer, Integer, Integer, Long>>(Time.seconds(10)) {
@Override
public long extractTimestamp(Tuple4<Integer, Integer, Integer, Long> element) {
return element.getField(3);
}
});
Table purchasesTable = tEnv.fromDataStream(purchaseWithTimestampsAndWatermarks, "userID, gemPackID,price, rowtime.rowtime");
tEnv.registerTable("purchasesTable", purchasesTable);
purchaseWithTimestampsAndWatermarks.flatMap(new WriteToRedis());
Table result = tEnv.sqlQuery("SELECT userID, gemPackID, rowtime from purchasesTable");
DataStream<Tuple2<Boolean, Row>> queryResultAsDataStream = tEnv.toRetractStream(result, Row.class);
queryResultAsDataStream.flatMap(new WriteToRedis());
try {
env.execute("flink SQL");
} catch (Exception e) {
e.printStackTrace();
}
}
/**
* write to redis
*/
public static class WriteToRedis extends RichFlatMapFunction<Tuple4<Integer, Integer, Integer, Long>, String> {
RedisReadAndWrite redisReadAndWrite;
@Override
public void open(Configuration parameters) {
LOG.info("Opening connection with Jedis to {}", "redis");
this.redisReadAndWrite = new RedisReadAndWrite("redis",6379);
}
@Override
public void flatMap(Tuple4<Integer, Integer, Integer, Long> input, Collector<String> out) throws Exception {
this.redisReadAndWrite.write(input.f0+":"+input.f3+"","time_seen", TimeUnit.NANOSECONDS.toMillis(System.nanoTime())+"");
}
}
}
public class RedisReadAndWrite {
private Jedis flush_jedis;
public RedisReadAndWrite(String redisServerName , int port) {
flush_jedis=new Jedis(redisServerName,port);
}
public void write(String key,String field, String value) {
flush_jedis.hset(key,field,value);
}
}
附加部分: 我尝试了第二个实现过程函数,该函数使用 Jedis 批量写入 toredis。但是我收到以下错误。 org.apache.flink.runtime.client.JobExecutionException:redis.clients.jedis.exceptions.JedisConnectionException:java.net.SocketException:套接字未连接。我试着减少批处理消息的数量,但过了一会儿我仍然遇到错误。
下面是流程函数的实现:
/** * 使用进程函数写入redis */
public static class WriteToRedisAfterQueryProcessFn extends ProcessFunction<Tuple2<Boolean, Row>, String> {
Long timetoFlush;
@Override
public void open(Configuration parameters) {
flush_jedis=new Jedis("redis",6379,1800);
p = flush_jedis.pipelined();
this.timetoFlush=System.currentTimeMillis()-initialTime;
}
@Override
public void processElement(Tuple2<Boolean, Row> input, Context context, Collector<String> collector) throws Exception {
p.hset(input.f1.getField(0)+":"+new Instant(input.f1.getField(2)).getMillis()+"","time_updated",TimeUnit.NANOSECONDS.toMillis(System.nanoTime())+"");
throughputAccomulationcount++;
System.out.println(throughputAccomulationcount);
if(throughputAccomulationcount==50000){
throughputAccomulationcount=0L;
p.sync();
}
}
}
最佳答案
毫无疑问,您遇到的性能不佳是因为您正在为每次写入向 redis 发出同步请求。 @kkrugler 已经提到了异步 i/o,这是针对这种情况的常见补救措施。这将需要切换到支持异步操作的 redis 客户端之一。
另一种在使用外部服务时常用的解决方案是将写入组批处理在一起。使用绝地武士,您可以使用 pipelining .例如,您可以将 WriteToRedis RichFlatMapFunction 替换为 ProcessFunction,该 ProcessFunction 以一定大小的批处理对 Redis 进行流水线写入,并根据需要依赖超时来刷新其缓冲区。您可以使用 Flink 的 ListState 作为缓冲区。
关于redis - 如何高效地将数据从flink管道写入redis,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53947481/
我正在学习如何使用Nokogiri,根据这段代码我遇到了一些问题:require'rubygems'require'mechanize'post_agent=WWW::Mechanize.newpost_page=post_agent.get('http://www.vbulletin.org/forum/showthread.php?t=230708')puts"\nabsolutepathwithtbodygivesnil"putspost_page.parser.xpath('/html/body/div/div/div/div/div/table/tbody/tr/td/div
总的来说,我对ruby还比较陌生,我正在为我正在创建的对象编写一些rspec测试用例。许多测试用例都非常基础,我只是想确保正确填充和返回值。我想知道是否有办法使用循环结构来执行此操作。不必为我要测试的每个方法都设置一个assertEquals。例如:describeitem,"TestingtheItem"doit"willhaveanullvaluetostart"doitem=Item.new#HereIcoulddotheitem.name.shouldbe_nil#thenIcoulddoitem.category.shouldbe_nilendend但我想要一些方法来使用
关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我想在固定时间创建一系列低音和高音调的哔哔声。例如:在150毫秒时发出高音调的蜂鸣声在151毫秒时发出低音调的蜂鸣声200毫秒时发出低音调的蜂鸣声250毫秒的高音调蜂鸣声有没有办法在Ruby或Python中做到这一点?我真的不在乎输出编码是什么(.wav、.mp3、.ogg等等),但我确实想创建一个输出文件。
给定这段代码defcreate@upgrades=User.update_all(["role=?","upgraded"],:id=>params[:upgrade])redirect_toadmin_upgrades_path,:notice=>"Successfullyupgradeduser."end我如何在该操作中实际验证它们是否已保存或未重定向到适当的页面和消息? 最佳答案 在Rails3中,update_all不返回任何有意义的信息,除了已更新的记录数(这可能取决于您的DBMS是否返回该信息)。http://ar.ru
我在我的项目目录中完成了compasscreate.和compassinitrails。几个问题:我已将我的.sass文件放在public/stylesheets中。这是放置它们的正确位置吗?当我运行compasswatch时,它不会自动编译这些.sass文件。我必须手动指定文件:compasswatchpublic/stylesheets/myfile.sass等。如何让它自动运行?文件ie.css、print.css和screen.css已放在stylesheets/compiled。如何在编译后不让它们重新出现的情况下删除它们?我自己编译的.sass文件编译成compiled/t
我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
Rackup通过Rack的默认处理程序成功运行任何Rack应用程序。例如:classRackAppdefcall(environment)['200',{'Content-Type'=>'text/html'},["Helloworld"]]endendrunRackApp.new但是当最后一行更改为使用Rack的内置CGI处理程序时,rackup给出“NoMethodErrorat/undefinedmethod`call'fornil:NilClass”:Rack::Handler::CGI.runRackApp.newRack的其他内置处理程序也提出了同样的反对意见。例如Rack
在选择我想要运行操作的频率时,唯一的选项是“每天”、“每小时”和“每10分钟”。谢谢!我想为我的Rails3.1应用程序运行调度程序。 最佳答案 这不是一个优雅的解决方案,但您可以安排它每天运行,并在实际开始工作之前检查日期是否为当月的第一天。 关于ruby-如何每月在Heroku运行一次Scheduler插件?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/8692687/
我有一个对象has_many应呈现为xml的子对象。这不是问题。我的问题是我创建了一个Hash包含此数据,就像解析器需要它一样。但是rails自动将整个文件包含在.........我需要摆脱type="array"和我该如何处理?我没有在文档中找到任何内容。 最佳答案 我遇到了同样的问题;这是我的XML:我在用这个:entries.to_xml将散列数据转换为XML,但这会将条目的数据包装到中所以我修改了:entries.to_xml(root:"Contacts")但这仍然将转换后的XML包装在“联系人”中,将我的XML代码修改为