草庐IT

mapreducer

全部标签

java - hadoop mapreduce Mapper 从文本文件中读取不正确的值

我正在编写一个mapreduce程序来处理一个文本文件,将一个字符串附加到每一行。我面临的问题是映射器的map方法中的文本值不正确。每当文件中的一行小于前一行时,会自动将几个字符附加到该行以使该行的长度等于上一行的长度。映射方法参数如下*@Overrideprotectedvoidmap(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{*我正在记录map方法中的值并观察此行为。有什么指点吗?代码片段DriverConfigurationconfiguration=newCon

java - hadoop mapreduce IntWritable范围有多长?

Hadoopmapreduce是一个分析大数据的框架。所以,其中一个例子分析大数据是计数程序。所以我想问一下,hadoopIntWritable范围有多长(如果数据到十亿是否适合使用?)。而如果我们要计数,我们用JavaInt数据类型做add或count操作,那么JavaInt数据类型范围呢?分析大数据是否也合适?(如果数据到十亿)非常感谢...... 最佳答案 int数据类型是一个32位有符号二进制补码整数。它的最小值为-2,147,483,648,最大值为2,147,483,647(含)。IntWritable也具有相同的范围容

java - 如何解决 MapReduce 中每个 'n' 的 TOP 'entity'?

我是Hadoop/MR领域的新手,正在尝试解决以下问题:一所大学试图根据其受欢迎程度找出过去20年开设的前20门学科。该程序应该通过计算每个校区的独特学生的访问次数来找出前20个主题。理想的输出应该是这样的:Campus1Mathes:3500Law:3200JavaProg:2830Anatomy:2701...Campus2DB:4200Chamistry:4190Business:3999Astronomy:3500...Campus3C/C++:2800Python:2799BigData:1900WebDev:1200.........有两个文件包含不同但相关的数据集:sub

hadoop - hadoop如何存储数据和使用MapReduce?

当我试图理解hadoop架构时,我想弄清楚一些问题。当有大数据输入时,HDFS会把它分成很多block(每个block64MB或128MB)然后复制很多次存储在内存块中,对吧?但是,我仍然不知道MapReduce在哪里工作。是用分合数据来存储的吗?或者用它来返回一些有用的输出? 最佳答案 在HDFS中存储数据与使用MapReduce范式分析数据是完全不同的事情。当上传到HDFS时,大数据文件被拆分成block存储在数据节点中,每个block被复制的次数与配置的复制因子(默认为3)一样多。数据拆分就像将文件除以配置的block大小一样

python - 使用 elastic-mapreduce 将文件加载到 EMR 分布式缓存时出错

我正在使用以下命令启动集群。./elastic-mapreduce--create\--stream\--caches3n://bucket_name/code/totalInstallUsers#totalInstallUsers\--inputs3n://bucket_name/input\--outputs3n://bucket_name/output\--mappers3n://bucket_name/code/mapper.py\--reducers3n://bucket_name\--jobflow-roleEMR_EC2_DefaultRole\--service-rol

java - 运行Hadoop MapReduce Java程序时出现UnsatisfiedLinkError

我正在尝试在Windows8.1上使用Hadoop运行这个MapReduce程序。经过大量努力,我已经非常接近工作了。我有Java1.8.0_45和Hadoop-2.7.0。我还有winutils.exe和hadoop.dll,它们给很多人带来了问题。代码如下:publicclassOSProject{publicstaticclassMapextendsMapReduceBaseimplementsMapper{@Overridepublicvoidmap(LongWritablekey,Textvalue,OutputCollectoroutput,Reporterreporter

Hadoop MapReduce 输出

另一个关于hadoop的问题。是否可以将列表缩减为map?我的意思是在map()之后我有所有这样的列表KEY:VALUE:aaawordstringwordtextstringword是否可以将列表缩减为以下结构?KEY:VALUE:aaaword,3string,2text,1谢谢曼纽尔 最佳答案 我要做的是:由于您正在尝试实现典型的字数统计,但在与键关联的列表上,我将通过在映射器的输出中生成(键,值)对,例如:aaa-word,1aaa-string,1aaa-word,1aaa-text,1aaa-string,1aaa-wo

hadoop - 什么是比较 MPI 和 MapReduce 的良好基准测试方法?

我知道它的经验法则:大数据、非迭代、容错=>MapReduce;速度、小数据、迭代、非Mapper-Reducer类型=>MPI(HadoopMapReducevsMPI(vsSparkvsMahoutvsMesos)-Whentouseoneovertheother?)。我想知道的是我应该使用什么基准测试方法来证明MapReduce适用于大数据、非迭代、容错的情况。我应该使用什么基准测试方法来证明MPI在速度、小数据和迭代情况下表现出色。非常感谢您提供的任何帮助 最佳答案 你可以看看BigDataBench.它具有一系列不同的工作

java - Spring MVC 和 Apache Hadoop 启动 MapReduce Job

我正在尝试通过SpringMVC应用程序启动hadoopMapReduce作业。MVC应用程序使用ApacheTomcat7.0.62运行良好。此外,hadoop应用程序与spring-data-hadoop配合得很好。当我尝试合并这些项目时,MapReduce作业初始化崩溃并出现以下错误。15/05/3116:10:18WARNsupport.ClassPathXmlApplicationContext:Exceptionencounteredduringcontextinitialization-cancellingrefreshattemptorg.springframework

java - MapReduce 作业因 ExitCodeException exitCode=255 而失败

我正在尝试运行需要共享库(.so文件)的MapReduce作业。如果我使用独立Java程序中的共享库,我根本没有问题(该程序使用java.library.path来查找库),但是如果我尝试使用MapReduce程序中的相同native方法,那么我获取我在下面粘贴的异常(对于我使用分布式缓存的MapReduce程序)。我知道实际上正在加载native库并且从MapReduce调用native代码(C++),因为native函数将某些内容打印到标准输出,但在native函数返回后我看到一个“信号被捕获,正在退出"消息,然后应用程序日志仅提供以下信息(我认为255在这种情况下是-1)但仅此而