草庐IT

row_divide_col_reduce

全部标签

hadoop - 前 10 个路径缩减图 reduce

我正在做一个需要路径导航图的项目。问题描述:为了提供项目上下文,示例UI应类似于:http://bl.ocks.org/mbostock/4063570.区别在于它将用于站点导航。我的问题是在后端处理数据。对于用户路径A->B->C->D->E我预先计算的数据格式如下所示:Origin:Start:End:LevelAABL1ABCL2ACDL3ADEL4现在,假设我有数百万条这样的记录,其中有100个起源,我可以将它们分组,聚合大小并按大小desc排序并取前10个。因此对于每个起源、开始和级别,我应该有10个记录每一个。因此,对于4个级别的图表,对于图表中给定的起始节点,我将有10.

hadoop - 将来自不同文件夹的 map-reduce 输出合并到单个文件夹中

我在分布在多个文件夹中的网格上有map-reduce输出。每个文件的格式都是一样的。每个文件夹都有一堆文件:示例:/folderpath/folder1/part-r-00001到/folderpath/folder1/part-r-00100.../folderpath/foldern/part-r-00001到/folderpath/foldern/part-r-00100将内容组合在一起的最简单方法是什么,即将文件聚合到单个文件夹中(我想稍后使用)/folderpath/merged/part-r-0000*.../folderpath/merged/part-r-000n我可以

python - Map-Reduce/Hadoop 按整数值排序(使用 MRJob)

这是一个简单的Map-Reduce排序功能的MRJob实现。在beta.py中:frommrjob.jobimportMRJobclassBeta(MRJob):defmapper(self,_,line):""""""l=line.split('')yieldl[1],l[0]defreducer(self,key,val):yieldkey,[vforvinval][0]if__name__=='__main__':Beta.run()我使用文本运行它:112438424755610711可以使用:cat|pythonbeta.py现在的问题是假设键的类型为string(这里可能就

java - 将多个 float 参数发送到 reducer 结果空指针异常

我是hadoop的新手。我正在尝试在以下代码中向reducer发送2个浮点参数。mapper成功地将参数传递给reducer但是如果我开始运行reducer空指针异常抛出..任何人都可以帮助我。提前致谢。publicclassMaxTemperatureextendsConfiguredimplementsTool{publicstaticclassMapMapperextendsMapper{publicvoidmap(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{Str

java - 如何在 hadoop 中将 reducer 输出作为 xml 格式

我创建了一个自定义的xmloutputformat类,将reducer的输出转换为xml格式。这里的问题是代码执行成功但最终输出是普通格式而不是XML格式。谁能帮帮我……?packagedd;importjava.io.IOException;importjava.net.URI;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.conf.Configured;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;im

java - 在 reduce 函数的参数中将 HashSet<Text> 作为 Iterable<Text> 传递 - HADOOP

我有一个HashMap,我想通过重载run方法将它的值传递给hadoop中的reduce函数。reduce函数接受Iterable。有没有办法做到这一点?预先感谢您的帮助。 最佳答案 HashSet(如文章标题)已经是可迭代的。通过它。如果您按照帖子正文所述使用map,则可以通过任何合适的:yourMap.keySet();//setofKyourMap.valueSet();//setofVyourMap.entrySet();//setofMap.Entry 关于java-在redu

hadoop - apache pig rank 运算符不适用于多个 reducer

我正在尝试使用pig的rank运算符为给定字符串分配整数。虽然当我将parallel子句设置为1时它起作用,但它没有更高的值(如200)。我需要使用多个reducer来加速处理,因为默认情况下,pig只使用一个reducer,这需要很长时间。我的查询如下:rank=按col1ASC并行200对tupl1进行排名; 最佳答案 实际上根据pig文档(https://pig.apache.org/docs/r0.11.1/perf.html#parallel):YoucanincludethePARALLELclausewithanyop

java - 控制不会进入 hadoop 中的 reducer

我在hadoop中写了一个自定义的输入格式和数据类型,它可以读取图像,将它存储到RGB数组中。但是当我在我的map和reduce函数中实现时,控制不会转到reducer函数。importjava.io.IOException;importjava.util.*;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.conf.*;importorg.apache.hadoop.io.*;importorg.apache.hadoop.mapreduce.*;importorg.apache.hadoop.mapreduce.lib

hadoop - 为什么 reducer 的数量大于我在 Hadoop 中指定的数量?

这是我的MR作业在控制台上的输出。作业成功完成。但我有两个顾虑。1)我指定了-Dmapred.reduce.slowstart.completed.maps=0.75。但是本地图完成75%时reducer没有启动,如下所示2)我指定了-Dmapred.reduce.tasks=2。但是启动的reducer任务的数量是3(如下所示)。为什么这两个参数没有被处理?hadoopjarhadoop-examples-1.2.1.jarwordcount-Dmapred.reduce.slowstart.completed.maps=0.75-Dmapred.reduce.tasks=2/dat

java - 如何将 reducer 类中的值添加到数组列表(Hadoop)中?

我的映射器输出:1504652886Geography8904209587Science8904209587Math9341024668English99341024668Science我现在正在尝试编写一个reducer类,它将组合公共(public)键并生成如下所示的输出:1504652886Geography8904209587Science,Math9341024668English9,Science在reducer类中,我试图制作一个数组列表,其中将包含特定ID的所有类(class),但我肯定做错了什么。我的代码如下:publicstaticclassReduceextend