草庐IT

device-mapper

全部标签

Hadoop Mapper 运行缓慢

我正在尝试同时使用映射器和缩减器来运行作业,但映射器运行缓慢..如果对于相同的输入我禁用reducers,映射器将在3分钟内完成而对于mapper-reducer作业,即使在30分钟后,Mappers仍未完成。我正在使用hadoop1.0.3..我尝试了压缩和不压缩map输出。我删除了旧版本的hadoop0.20.203并从头开始为1.0.3重新安装了所有内容Jobtracker日志也​​充满了:2012-10-0310:26:20,138INFOorg.apache.hadoop.ipc.Server:IPCServerlisteneron54311:readAndProcessth

hadoop - 如果我使用 -mapper cat 而不是 -mapper org.apache.hadoop.mapred.lib.IdentityMapper,Hadoop Streaming 的性能会降低吗?

我在尝试使用org.apache.hadoop.mapred.lib.IdentityMapper作为HadoopStreaming1.0.3中-mapper的参数时遇到了问题。“猫”虽然有效;使用cat会影响性能——尤其是在ElasticMapReduce上吗? 最佳答案 我遇到了类似的问题,其中身份映射器不起作用,我必须使用Cat。我们没有看到性能上的巨大变化,据我所知,identitymapper是一个jar,而cat是unix命令。 关于hadoop-如果我使用-mapperca

hadoop - 如何在 Reduce Join 算法中设置多个 Mappers?

在Reduce侧连接算法中,使用了两个映射器类。但是在我的代码的驱动类中都没有设置,只设置了reducer。作业如何知道要使用哪个映射器类?我们如何为一个作业设置多个映射器类?我正在使用hadoop2.2感谢和问候,迪拉吉PS:我只是从发给我导师的电子邮件中复制粘贴了问题,所以你们中的一些人可能已经看到问题中出现了他的名字。对此表示歉意。 最佳答案 找到答案..对于它设置的多个映射器MultipleInputs.addInputPath(); 关于hadoop-如何在ReduceJoin

java - 一个 Mapper 类 Hadoop 中的多个输入文件?

所以,我正在尝试在MapReduce范例中编写FP-Tree算法,对于创建频繁项集列表,我有以下问题:输入:File1.txt(包含所有交易)1234522211245769877776123354[EachLinecontainsitemsBoughtinoneTransaction]File2.txt(包含按降序购买的元素)1212362215774354[Count][ItemId]输出:output.txt12322112377354[2ndtransactioniseliminated]根据计数的项目被采纳(降序),其他被删除是否可以将File1.txt和File2.txt都

python-2.7 - MRJob 中没有 mapper() 的 reduce() 会做什么?

我是python的新手,正在尝试按照说明http://www.yekeren.com/blog/archives/1005构建推荐系统,让我困惑的是:defreducer3_init(self):self.pop={}file=open(self.options.item_pop,"r")forlineinfile.readlines():movieid_jstr,pop_jstr=line.strip().split("\t")movieid=json.loads(movieid_jstr)pop=json.loads(pop_jstr)self.pop[movieid]=popfi

hadoop - Inputsplit、RecordReader & Map 实例和 Mapper 之间的数据流

如果我有一个包含1000行的数据文件......并且我在我的字数统计程序的map方法中使用了TextInputFormat。因此,数据文件中的每一行都将被视为一个拆分。RecordReader会将每一行(或拆分)作为(Key,Value)对提供给map()方法。根据我的理解..1000次map()方法应该为每一行或记录执行。表示将运行多少个Mappers?抱歉,在这里混淆了。map()方法只是mapper的一个实例,对吧。那么每个Mapper任务有多少个map实例是根据什么决定的???注意:当我为1000行数据执行WordCountMapReduce程序时。我看到Mappers的数量为

hadoop - Oozie 作业在运行 hue 时由于 "not org.apache.hadoop.mapred.Mapper"而失败

我正在尝试通过oozie作业运行wordcount程序。当我像hadoopjarwordcoutjar/data.txt/out一样手动运行wordcoutjar时。它运行良好并给我输出。这是我的wordcount程序的映射器代码的详细信息。publicclassMapperWordcountextendsMapper{privatefinalstaticIntWritableone=newIntWritable(1);privateTextword=newText();publicvoidmap(LongWritablekey,Textvalue,Contextcontext)thr

java - 如何将附加数据传递给 Mapper?

由于一些数据在所有map()函数之间共享,我无法在setup()中生成它们,因为每个setup()对应于每个map()函数,而我想做的是预先生成一些数据并将其存储在可实现的地方,然后在每个map()中使用它。我该怎么做?假设我正在使用Mapreduce执行KNN,并且我想使用每个map()的所有测试数据。我应该在哪里存储这些测试数据,然后在映射器中使用它们?非常感谢。 最佳答案 您可以将预先计算的数据存储到HDFS中,然后将其包含在作业的DitributedCache中。https://hadoop.apache.org/docs/

Hadoop 基础 :Number of map tasks mappers reduce tasks reducers

映射器和映射任务有什么区别?同样,reducer和reduce任务?此外,在执行mapreduce任务期间如何确定映射器、maptasks、reducer、reducetasks的数量?如果有的话,给出它们之间的相互关系。 最佳答案 简单来说maptask就是Mapper的一个实例。Mapper和reducer是mapreduce作业中的方法。当我们运行mapreduce作业时,生成的map任务数取决于输入中的block数(block数取决于输入拆分)。然而,reduce任务的数量可以在mapreduce驱动程序代码中指定。可以通过

java - hadoop mapreduce Mapper 从文本文件中读取不正确的值

我正在编写一个mapreduce程序来处理一个文本文件,将一个字符串附加到每一行。我面临的问题是映射器的map方法中的文本值不正确。每当文件中的一行小于前一行时,会自动将几个字符附加到该行以使该行的长度等于上一行的长度。映射方法参数如下*@Overrideprotectedvoidmap(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{*我正在记录map方法中的值并观察此行为。有什么指点吗?代码片段DriverConfigurationconfiguration=newCon