草庐IT

reduce_dim

全部标签

java - 从 java map reduce 代码中跳过 header

我正在尝试获取csv文件的摘要,文件的第一行是标题。有没有一种方法可以使每个列的值及其标题名称作为Java代码中的键值对。例如:输入文件是这样的A,B,C,D1,2,3,45,6,7,8我希望映射器的输出为(A,1),(B,2),(C,3),(D,4),(A,5),....注意:我尝试使用覆盖Mapper类中的运行函数来跳过第一行。但据我所知,每次输入拆分都会调用运行函数,因此不适合我的需要。对此的任何帮助将不胜感激。这是我的映射器的样子:publicvoidmap(LongWritablekey,Textvalue,Contextcontext)throwsIOException,I

java - 在 Reducer 中查找最常见的键,错误 : java. lang.ArrayIndexOutOfBoundsException:1

我需要在Reducer中找到Mapper发出的最常见的键。我的reducer以这种方式工作正常:publicstaticclassMyReducerextendsReducer{privateTextresult=newText();privateTreeMapk_closest_points=newTreeMap();publicvoidreduce(NullWritablekey,Iterablevalues,Contextcontext)throwsIOException,InterruptedException{Configurationconf=context.getConf

hadoop - reducer 后映射器启动缓慢

我正在使用ChainReducer构建以下模式Map1-->Reduce-->Map2我希望Map2步骤仅在Reduce步骤完成后才开始。hadoopmapreduce中是否有一个属性来设置它。 最佳答案 你应该做的是:ChainMapper.addMapper(generalConf,Map1.class,...,newJobConf(false));ChainReducer.setReducer(generalConf,Reduce.class,...,newJobConf(false));ChainReducer.addMap

python - 如何将 reducer 的结果打印到单个文件中

我正在使用AmazonEMR,由于它的工作方式(并行),我的输出被分成多个文件。但我想要一个文件而不是正确的顺序,是否可以这样做?我在reducer中的最后一行是这样的forkey,valueindoc_dict.iteritems():printkeyfork,vinvalue.iteritems():printk,v这让我发疯,我无法展示结果,因为它们混在一起。 最佳答案 您必须运行脚本来合并零件文件hadoopfs-getmerge/output/dir/on/hdfs//desired/local/output/file.t

java - Map Reduce 程序抛出异常 IOException "Type mismatch in key from map"

您好,请在下面找到我的代码,它抛出异常。packageHadoopMapReduce;importjava.io.IOException;importjava.util.Iterator;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.h

hadoop - PIG 脚本 : reducer preempted to make room for pending map attempts

我使用不同的参数运行同一个PIG脚本的多个实例。当集群负载很重时,MapReduce作业日志显示大量reducer被抢占,这需要时间:ReducerpreemptedtomakeroomforpendingmapattemptsContainerkilledbytheApplicationMaster.Containerkilledonrequest.Exitcodeis143Containerexitedwithanon-zeroexitcode143如何避免此类抢占问题以最小化脚本执行时间? 最佳答案 看看this关联。简而言之

hadoop - 如何将 Amazon Glacier/S3 与 hadoop map reduce/spark 结合使用?

我需要使用Hadoop/EMR处理存储在AmazonS3和AmazonGlacier中的数据,并将输出数据保存在RDBMS中,例如。垂直我完全是大数据的菜鸟。我只看过一些关于mapreduce和sparx的在线类(class)和ppts。并创建了一些虚拟mapreduce代码用于学习目的。到目前为止,我只有一些命令可以让我将数据从S3导入AmazonEMR中的HDFC,并在处理后将它们存储在HDFS文件中。所以这是我的问题:在执行mapreduce之前是否真的必须先将数据从S3同步到HDFC,或者是否有直接使用S3的方法。`如何让hadoop访问AmazonGlacier数据`最后是如

database - Sqoop 是否使用 Reducer?

如果在使用--query参数给出的选择查询中执行连接/聚合,Sqoop是否运行reducer?或者在Sqoop中是否存在同时运行映射器和缩减器的情况?Documentation指定每个映射任务都需要执行查询的副本,结果按Sqoop推断的边界条件进行分区。$sqoopimport\--query'SELECTa.*,b.*FROMaJOINbon(a.id==b.id)WHERE$CONDITIONS'\--split-bya.id--target-dir/user/foo/joinresults在上面的示例中,JOIN如何在首先使用$CONDITIONS对表进行分区的地方发生?

java - Cloudera 中的 WordCount 作业成功但 reducer 的输出与 mapper 的输出相同

这个程序是用Cloudera编写的。这是我创建的驱动程序类。importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;importorg.apache.hadoo

hadoop - Iterable 在 mapreduce Reduce Task 中不起作用

大家好,我是hadoop的新手,我正在努力解决与reducer相关的问题。我有一个简单的wordcount程序,它没有返回预期的输出预期输出:这1哈多普2输出:这1hadoop1hadoop1wordcount程序代码packagein.edureka.mapreduce;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.LongWritable;impor