草庐IT

reduce_dim

全部标签

hadoop - RDBMS 与 MAP REDUCE

我正在阅读Hadoop-权威指南,我遇到了这些行:NormalizationposesproblemsforMapReduce,sinceitmakesreadingarecordanonlocaloperation,andoneofthecentralassumptionsthatMapReducemakesisthatitispossibletoperform(high-speed)streamingreadsandwrites.谁能用通俗易懂的语言解释一下这些行的实际含义?我知道什么是规范化。它是如何使读取记录成为非本地的手术?非本地操作引用hadoop是什么意思?

hadoop - Hadoop 中的 Combiners , Reducers 和 EcoSystemProject

您如何看待本site中提到的问题4的答案?会是吗?答案是对是错问题:4InthestandardwordcountMapReducealgorithm,whymightusingacombinerreducetheoverallJobrunningtime?A.Becausecombinersperformlocalaggregationofwordcounts,therebyallowingthemapperstoprocessinputdatafaster.B.Becausecombinersperformlocalaggregationofwordcounts,therebyre

apache - Hadoop/map-reduce : Total time spent by all maps in occupied slots vs. 所有 map task 花费的总时间

背景:我正在分析AWSHadoop作业在各种集群配置上的性能,一些Hadoop计数器令人困惑。问题:“所有map在占用槽中花费的总时间”和“所有maptask花费的总时间”有什么区别?(减少相同的问题)。为简单起见,我们称这些计数器为mapO、mapT、redO和redT。这是我在三种不同的配置中看到的(每种配置都有不同数量的核心/从节点):1)对于AWS/EMR作业(Hadoop2.4.0-amzn-3),mapO/mapT的比率始终为6.0,redO/redT的比率始终为12.0。2)对于使用实例存储的手动安装的Hadoop(Hadoop2.4.0.2.1.5.0-695),map

hadoop - 获取 Hadoop reducer 中的输入记录数

在我的reducer中,我需要映射器处理的输入“行”总数。示例输入:输入第1行第2行的输入输入第3行因此,在所有Reducer中,我需要访问映射器发出的任何内容加上总行数(在本例中为3)。我假设我需要多个作业或将一些映射器和/或缩减器链接在一起,但我不确定正确的方法。注意:这不是一个简单的平均程序,所以我不能只从映射器中获取一个键。 最佳答案 job.getCounters().findCounter(TaskCounter.MAP_INPUT_RECORDS).getValue()获取记录总数。

hadoop map reduce -archives 不解压文件

希望你能帮助我。我有一个关于hadoopmap-reduce的令人头疼的问题。我一直在hadoop1.0.3版的map-reduce上成功使用“-files”选项。但是,当我使用“-archives”选项时,它会复制文件,但不会解压缩它们。我错过了什么?文档说“Archives(zip,tarandtgz/tar.gzfiles)areun-archivedattheslavenodes",但这不是我所看到的。我创建了3个文件-一个文本文件“alice.txt”、一个压缩文件“bob.zip”(包含b1.txt和bdir/b2.txt)和一个tar文件“claire.tar”(包含c1

hadoop - 如何将 map reduce 作业的输出直接写入分布式缓存,以便将其传递给另一个作业

我目前正在练习Map-reduce(Hadoop2.2),需要您在其中一个概念上的帮助。我有一个用例,我想使用两个作业来完成。我希望将job1的输出写入分布式缓存,并将其作为输入传递给第二个作业。基本上我想避免将第一个作业的输出写入文件,从而导致开销。用例输入:歌曲文件-|编号|歌曲|输入||s1|歌曲1|古典||s2|歌曲2|爵士乐||s2|歌曲3|经典|.用户评分文件-|用户ID|歌曲编号|评分||u1|s1|7||u2|s2|5||u3|s2|9||u4|s1|7||u5|s5|5||u6|s1|9|注意:这两个文件都包含非常大的数据。用例描述:找出每首古典类型歌曲的平均评分。我

java - mapreduce.reduce.shuffle.memory.limit.percent、mapreduce.reduce.shuffle.input.buffer.percent 和 mapreduce.reduce.shuffle.merge.percent

我只是想验证我对这些参数及其关系的理解,如果我错了请通知我。mapreduce.reduce.shuffle.input.buffer.percent告诉分配给reducer的整个洗牌阶段的内存总量。mapreduce.reduce.shuffle.memory.limit.percent告诉单个shuffle可以从mapreduce.reduce.shuffle.input消耗的内存限制的最大百分比.buffer.percent.mapreduce.reduce.shuffle.merge.percent是启动内存中合并的使用阈值,表示为总内存的百分比(mapreduce.reduc

java - Hadoop 应用程序找不到 Reducer

我正在尝试制作一个mapreduce应用程序,它从Hbase表中读取并将作业结果写入文本文件。我的驱动程序代码如下所示:Configurationconf=HBaseConfiguration.create();Jobjob=Job.getInstance(conf,"mrtest");job.setJarByClass(Driverclass.class);job.setCombinerClass(reducername.class);job.setReducerClass(reducername.class);Scanscan=newScan();scan.setCaching(5

hadoop - Hive Tez reducer 运行速度超慢

我加入了多个表,总行数约为250亿行。最重要的是,我正在做聚合。下面是我的配置单元设置,我用它来生成最终输出。我不太确定如何调整查询并使其运行得更快。目前,我正在反复试验,看看是否能产生一些结果,但似乎没有用。Mappers运行得更快,但reducers需要很长时间才能完成。谁能分享您对此的看法?谢谢。SEThive.execution.engine=tez;SEThive.exec.dynamic.partition.mode=nonstrict;SEThive.qubole.cleanup.partial.data.on.failure=true;SEThive.tez.conta

hadoop - Mapper 和 Reducer 如何协同工作 "without"排序?

我知道mapreduce是如何工作的以及我有哪些步骤:绘图随机排序减少当然,我有分区、组合器,但现在这些并不重要。有趣的是,当我运行mapreduce作业时,看起来mappers和reducers并行工作:所以我不明白这怎么可能。问题1.如果我有多个节点在做映射操作,reducer如何开始工作?因为Reducer不能在没有排序的情况下开始工作吗?(输入必须为Reducer排序-如果mapper仍在工作,则输入无法排序)。问题2.如果我有多个reducer,最后的数据如何合并在一起?换句话说,最终结果应该排序对吧?这意味着我们要花费额外的O(n*Logn)时间来合并“多个reducer结