以下代码片段是获取目录列表、对每个文件调用提取方法并将生成的药物对象序列化为 xml 的方法的一部分。
try(Stream<Path> paths = Files.list(infoDir)) {
paths
.parallel()
.map(this::extract)
.forEachOrdered(drug -> {
try {
marshaller.write(drug);
} catch (JAXBException ex) {
ex.printStackTrace();
}
});
}
这是完全相同的代码,做完全相同的事情,但使用普通的 .list() 调用来获取目录列表并调用 .parallelStream()结果列表。
Arrays.asList(infoDir.toFile().list())
.parallelStream()
.map(f -> infoDir.resolve(f))
.map(this::extract)
.forEachOrdered(drug -> {
try {
marshaller.write(drug);
} catch (JAXBException ex) {
ex.printStackTrace();
}
});
我的机器是四核 MacBook Pro,Java v 1.8.0_60(内部版本 1.8.0_60-b27)。
我正在处理 ~ 7000 个文件。 3 次运行的平均值:
第一个版本:
使用 .parallel():20 秒。没有 .parallel():41 秒
第二个版本:
使用 .parallelStream():12 秒。使用 .stream():41 秒。
鉴于 extract 方法从流中读取并完成所有繁重的工作,而 write 调用执行最终写入没有改变。
最佳答案
问题是 Stream API 的当前实现以及当前用于未知大小源的 IteratorSpliterator 实现严重地将此类源拆分为并行任务。您很幸运拥有超过 1024 个文件,否则您将完全没有并行化优势。当前的 Stream API 实现考虑了从 Spliterator 返回的 estimateSize() 值。未知大小的 IteratorSpliterator 在拆分前返回 Long.MAX_VALUE,其后缀也总是返回 Long.MAX_VALUE。其拆分策略如下:
MAX_BATCH 大小(即 33554432 个元素)。ArraySpliterator 迭代创建的数组作为前缀,将其自身作为后缀。假设您有 7000 个文件。 Stream API 要求估计大小,IteratorSpliterator 返回 Long.MAX_VALUE。好的,Stream API 要求 IteratorSpliterator 拆分,它从底层 DirectoryStream 收集 1024 个元素到数组并拆分到 ArraySpliterator(估计大小1024) 及其自身(估计大小仍为 Long.MAX_VALUE)。由于 Long.MAX_VALUE 远大于 1024,Stream API 决定继续拆分较大的部分,甚至不尝试拆分较小的部分。所以整体的 split 树是这样的:
IteratorSpliterator (est. MAX_VALUE elements)
| |
ArraySpliterator (est. 1024 elements) IteratorSpliterator (est. MAX_VALUE elements)
| |
/---------------/ |
| |
ArraySpliterator (est. 2048 elements) IteratorSpliterator (est. MAX_VALUE elements)
| |
/---------------/ |
| |
ArraySpliterator (est. 3072 elements) IteratorSpliterator (est. MAX_VALUE elements)
| |
/---------------/ |
| |
ArraySpliterator (est. 856 elements) IteratorSpliterator (est. MAX_VALUE elements)
|
(split returns null: refuses to split anymore)
所以之后你有五个并行任务要执行:实际包含 1024、2048、3072、856 和 0 个元素。请注意,即使最后一个 block 有 0 个元素,它仍然报告它估计有 Long.MAX_VALUE 个元素,因此 Stream API 也会将它发送到 ForkJoinPool。糟糕的是 Stream API 认为进一步拆分前四个任务是无用的,因为它们的估计大小要小得多。所以你得到的是输入的非常不均匀的分割,它最多使用四个 CPU 内核(即使你有更多)。如果您的每个元素处理对任何元素都花费大致相同的时间,那么整个过程将等待最大部分(3072 个元素)完成。所以你可能拥有的最大加速是 7000/3072=2.28x。因此,如果顺序处理需要 41 秒,那么并行流将花费大约 41/2.28 = 18 秒(接近您的实际数字)。
您的解决方案完全没问题。请注意,使用 Files.list().parallel() 您还将所有输入 Path 元素存储在内存中(在 ArraySpliterator 对象中) .因此,如果您手动将它们转储到 List 中,您将不会浪费更多内存。像 ArrayList(目前由 Collectors.toList() 创建)这样的支持数组的列表实现可以毫无问题地均匀拆分,从而进一步加快速度。
为什么这种情况没有优化?当然这不是不可能的问题(尽管实现起来可能非常棘手)。对于 JDK 开发人员来说,这似乎不是高优先级的问题。在邮件列表中有几个关于这个主题的讨论。您可以阅读 Paul Sandoz 消息 here他对我的优化工作发表评论。
关于java - 为什么 Files.list() 并行流的执行速度比使用 Collection.parallelStream() 慢得多?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34341656/
类classAprivatedeffooputs:fooendpublicdefbarputs:barendprivatedefzimputs:zimendprotecteddefdibputs:dibendendA的实例a=A.new测试a.foorescueputs:faila.barrescueputs:faila.zimrescueputs:faila.dibrescueputs:faila.gazrescueputs:fail测试输出failbarfailfailfail.发送测试[:foo,:bar,:zim,:dib,:gaz].each{|m|a.send(m)resc
我有一个模型:classItem项目有一个属性“商店”基于存储的值,我希望Item对象对特定方法具有不同的行为。Rails中是否有针对此的通用设计模式?如果方法中没有大的if-else语句,这是如何干净利落地完成的? 最佳答案 通常通过Single-TableInheritance. 关于ruby-on-rails-Rails-子类化模型的设计模式是什么?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.co
我正在使用的第三方API的文档状态:"[O]urAPIonlyacceptspaddedBase64encodedstrings."什么是“填充的Base64编码字符串”以及如何在Ruby中生成它们。下面的代码是我第一次尝试创建转换为Base64的JSON格式数据。xa=Base64.encode64(a.to_json) 最佳答案 他们说的padding其实就是Base64本身的一部分。它是末尾的“=”和“==”。Base64将3个字节的数据包编码为4个编码字符。所以如果你的输入数据有长度n和n%3=1=>"=="末尾用于填充n%
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
为什么4.1%2返回0.0999999999999996?但是4.2%2==0.2。 最佳答案 参见此处:WhatEveryProgrammerShouldKnowAboutFloating-PointArithmetic实数是无限的。计算机使用的位数有限(今天是32位、64位)。因此计算机进行的浮点运算不能代表所有的实数。0.1是这些数字之一。请注意,这不是与Ruby相关的问题,而是与所有编程语言相关的问题,因为它来自计算机表示实数的方式。 关于ruby-为什么4.1%2使用Ruby返
它不等于主线程的binding,这个toplevel作用域是什么?此作用域与主线程中的binding有何不同?>ruby-e'putsTOPLEVEL_BINDING===binding'false 最佳答案 事实是,TOPLEVEL_BINDING始终引用Binding的预定义全局实例,而Kernel#binding创建的新实例>Binding每次封装当前执行上下文。在顶层,它们都包含相同的绑定(bind),但它们不是同一个对象,您无法使用==或===测试它们的绑定(bind)相等性。putsTOPLEVEL_BINDINGput
我可以得到Infinity和NaNn=9.0/0#=>Infinityn.class#=>Floatm=0/0.0#=>NaNm.class#=>Float但是当我想直接访问Infinity或NaN时:Infinity#=>uninitializedconstantInfinity(NameError)NaN#=>uninitializedconstantNaN(NameError)什么是Infinity和NaN?它们是对象、关键字还是其他东西? 最佳答案 您看到打印为Infinity和NaN的只是Float类的两个特殊实例的字符串
如果您尝试在Ruby中的nil对象上调用方法,则会出现NoMethodError异常并显示消息:"undefinedmethod‘...’fornil:NilClass"然而,有一个tryRails中的方法,如果它被发送到一个nil对象,它只返回nil:require'rubygems'require'active_support/all'nil.try(:nonexisting_method)#noNoMethodErrorexceptionanymore那么try如何在内部工作以防止该异常? 最佳答案 像Ruby中的所有其他对象
关闭。这个问题需要detailsorclarity.它目前不接受答案。想改进这个问题吗?通过editingthispost添加细节并澄清问题.关闭8年前。Improvethisquestion为什么SecureRandom.uuid创建一个唯一的字符串?SecureRandom.uuid#=>"35cb4e30-54e1-49f9-b5ce-4134799eb2c0"SecureRandom.uuid方法创建的字符串从不重复?
我真的很习惯使用Ruby编写以下代码:my_hash={}my_hash['test']=1Java中对应的数据结构是什么? 最佳答案 HashMapmap=newHashMap();map.put("test",1);我假设? 关于java-等价于Java中的RubyHash,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/22737685/