草庐IT

reducer-combiner

全部标签

hadoop - Map Reduce 保持输入顺序

我尝试使用hadoop实现一个处理文本文件的应用程序。问题是我无法保持输入文本的顺序。有什么方法可以选择哈希函数吗?这个问题可以通过分配分区轻松解决输入到每个映射器,然后将分区发送到reducers。这可以用hadoop实现吗? 最佳答案 MapReduce的基本思想是,事情完成的顺序是无关紧要的。所以你不能(也不需要)控制以下顺序:输入记录通过映射器。键和相关值通过缩减器。您唯一可以控制的是值在迭代器中的放置顺序,该顺序在缩减器中可用。这是使用称为“二级排序”的结构完成的。thisterm的简单谷歌操作导致您可以继续的几个点。我喜

hadoop - 为什么要对 map reduce 中生成的中间键进行 SORT?

我理解为什么中间键值按键分组但为什么要对它们进行排序? 最佳答案 分组就是这样实现的。当您按键排序时,它们会组合在一起。它是否已排序并不重要……重要的是相同的键彼此相邻。排序可能不是最好的方法。也许某种哈希算法会更快:O(N)而不是O(NlogN)。它被实现为排序只是因为有一些应用程序需要排序的键(例如HBase/BigTable)。最近开发了一种可插入排序,并且在测试版中可用。我还没有机会尝试一下。http://hadoop.apache.org/docs/stable/hadoop-mapreduce-client/hadoop

java - 在 Hadoop 中并行化 Ruby reducer?

Ruby中的一个简单的wordcountreducer如下所示:#!/usr/bin/envrubywordcount=Hash.newSTDIN.each_linedo|line|keyval=line.split("|")wordcount[keyval[0]]=wordcount[keyval[0]].to_i+keyval[1].to_iendwordcount.each_pairdo|word,count|puts"#{word}|#{count}"end它在STDIN中获取所有映射器的中间值。不是来自特定的key。所以实际上只有一个缩减器(而不是每个单词或每组单词的缩减器)

python - 将python协同过滤代码转换为使用Map Reduce

我使用Python计算项目之间的余弦相似度。给定表示购买(用户、项目)的事件数据,我有一个由我的用户“购买”的所有项目的列表。给定这个输入数据(user,item)X,1X,2Y,1Y,2Z,2Z,3我建立了一个python字典{1:['X','Y'],2:['X','Y','Z'],3:['Z']}从那个字典中,我生成了一个购买/未购买矩阵,也是另一个字典(bnb)。{1:[1,1,0],2:[1,1,1],3:[0,0,1]}从那里开始,我通过计算(1,1,0)和(1,1,1)之间的余弦来计算(1,2)之间的相似度,得到0.816496我这样做是为了:items=[1,2,3]fo

Hadoop reducer 字符串操作不起作用

嗨Reduce阶段的文本操作似乎无法正常工作。我怀疑问题可能出在我的代码中而不是hadoop本身,但你永远不知道......如果你能发现任何陷阱,请告诉我。我浪费了一天的时间试图弄清楚这段代码有什么问题。我的示例输入文件名为simple.psv12345abc@bbc.com|m|197512346bbc@cde.com|m|1981我的Mapper和reducer代码packagesimplemapreduce;importjava.io.IOException;importjava.util.Iterator;importjava.util.StringTokenizer;impo

configuration - 为什么 Hadoop 中正确的 reduce 数量是 0.95 或 1.75?

hadoop文档指出:Therightnumberofreducesseemstobe0.95or1.75multipliedby(*mapred.tasktracker.reduce.tasks.maximum).With0.95allofthereducescanlaunchimmediatelyandstarttransferringmapoutputsasthemapsfinish.With1.75thefasternodeswillfinishtheirfirstroundofreducesandlaunchasecondwaveofreducesdoingamuchbett

map - 配置Hadoop集群时应该设置多少个mapper/reducer?

配置Hadoop集群时,为集群设置映射器/缩减器数量的科学方法是什么? 最佳答案 没有公式。这取决于你有多少核心和多少内存。mapper的个数+reducer的个数一般不要超过core的个数。请记住,该机器还运行着TaskTracker和DataNode守护进程。一般建议之一是映射器多于缩减器。如果我是你,我会使用合理数量的数据运行我的一项典型工作来尝试一下。 关于map-配置Hadoop集群时应该设置多少个mapper/reducer?,我们在StackOverflow上找到一个类似的

hadoop - 使用 HBASE MAP REDUCE API 将数据加载到 Hbase 表中

我对Hbase和MapReduceAPI很陌生。我对MapReduce概念很困惑。我需要使用MAPReduceAPI将文本文件加载到Hbase表中。我用谷歌搜索了一些示例,但在那里我可以找到MAPPER()而不是reducer方法。我对什么时候使用mapper以及什么时候使用Reducer()感到困惑。我的想法是这样的:我们使用映射器将数据写入Hbase从中读取数据HBASE我们使用mapper和reducer()。请任何人清除我详细解释。我正在尝试将数据从文本文件加载到HBASE表。我用谷歌搜索并尝试了一些代码,但我不知道如何加载文本文件并在HBASEmapreduceAPI中读取。

hadoop - Map Reduce 插槽定义

我即将成为一名ClouderaHadoop管理员。从一开始,我就听到很多关于Hadoop集群中每台机器计算槽的信息,比如定义MapSlot和Reduce槽的数量。我在互联网上搜索了一个日志时间来获取MapReduceSlot的新手定义,但没有找到。浏览PDF解释MapReduce配置时,我真的很生气。当涉及到集群机器中的计算插槽时,请解释它的确切含义。 最佳答案 在map-reducev.1中,mapreduce.tasktracker.map.tasks.maximum和mapreduce.tasktracker.reduce.t

hadoop - 使用零 Reducers 时,我能否从 Hadoop 获得单独排序的 Mapper 输出?

我在Hadoop0.20中有一份工作需要一次处理一个大文件。(这是一个预处理步骤,可将面向文件的数据转换为更适合MapReduce的更清晰、基于行的格式。)我不介意我有多少个输出文件,但每个Map的输出最多只能在一个输出文件中,并且每个输出文件都必须排序。如果我使用numReducers=0运行,它运行得很快,并且每个Mapper写出自己的输出文件,这很好-但文件没有排序。如果我添加一个reducer(普通Reducer.class),这会向单个文件添加一个不必要的全局排序步骤,这会花费很多小时(比Map任务花费的时间长得多)。如果我添加多个reducer,各个map作业的结果会混合在