草庐IT

mapreducer

全部标签

java - 如何通过 Maven 在 Intellij 中导入 hadoop.hbase.mapreduce?

我打算在IntelliJ中使用Hadoop的伪分布式模式。目前,我可以在笔记本电脑上成功运行WordCount示例代码。然后,我尝试编写另一个代码,其中包括hbase的用法。但是,我无法在我的代码中导入importorg.apache.hadoop.hbase.mapreduce.TableReducer;。我试图添加不同的Maven依赖项,但它不起作用。这是hadoop代码:packagetopten;importjava.io.*;importjava.util.Map;importjava.util.TreeMap;importjava.util.HashMap;importor

hadoop - 如何在 MapReduce 中设置自定义输入格式?

我正在编写MapReduce程序并使用org.apache.hadoop.mapred.*中的类。谁能告诉我这个错误的原因?我的CustomInputFormat类扩展了InputFormat并且我已经覆盖了createRecordReader方法。我的CustomInputFormat的签名是:classParagraphInputFormatextendsInputFormat{@OverridepublicRecordReadercreateRecordReader(InputSplitarg0,TaskAttemptContextarg1)throwsIOException,I

Mongodb_Hadoop MapReduce

我正在尝试运行mongodb和hadoopmapreduce我收到以下警告和错误请帮助我解决这些提前谢谢13/06/2010:42:55WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable13/06/2010:42:55WARNmapred.JobClient:UseGenericOptionsParserforparsingthearguments.ApplicationsshouldimplementToo

hadoop - 来自 HTable 的 MapReduce 输入

我有一个MapReduce作业,其输入来自HTable。在JavaMapReduce代码中,如何将作业输入格式设置为HBaseTableInputFormat?有没有类似JDBC连接的东西连接到HTable数据库? 最佳答案 如果您的客户端和HBase在同一台机器上运行,则无需为客户端配置任何内容即可与HBase通信。只需创建一个HBaseConfiguration实例并连接到您的HTable:Configurationconf=HBaseConfiguration.create();HTabletable=newHTable(co

java - Hadoop Mapreduce 自定义记录读取器

我关注了this为hadoop创建自定义输入拆分的指南。现在我每次都有一个异常(exception):FileSplitsplit=(FileSplit)genericSplit;我导入了这2个:importorg.apache.hadoop.mapred.FileSplit;importorg.apache.hadoop.mapreduce.InputSplit;但我不明白为什么给我异常(exception)。FileSplit扩展了InputSplit,那么为什么会有异常? 最佳答案 我觉得你想要importorg.apache

api - 最容易学习的 API/创建用于在 hadoop 上运行 mapreduce 的 Web 应用程序的方法?

我在我的ubuntu11.04上运行hadoop1.0.4,配置了eclipse我想制作一个web应用程序来运行hadoop作业,或者可能是Cassandra,Hbase和Hive可能是一种方式,但我没有太多时间彻底学习所有这些,我想尽快做到这一点。有什么建议可能被证明是最容易上手的吗? 最佳答案 我不知道这个问题是否真的有资格以目前的形式出现在SO上。这就是我最初没有写这篇文章的原因。但是,很多SO专家都在那里决定这个(他们可以比我做得更好):)说到这里,我想根据我的亲身经历,跟大家分享几点,让大家朝着正确的道路前行。首先,Had

hadoop - 自动链接 mapreduce 库

我正在开发一个在亚马逊网络服务上运行的mapreduce程序(它实际上是一个相当复杂的字数统计算法)。我生成了一个在AWS节点上运行的.jar。我现在正在做的是将所有mapreduce库jar合并到我的.jar文件中。一切正常,但我认为这不是一个很好的做法(他们对机器镜像进行了一些更新,我收到了可能与此相关的奇怪异常)。有人可以向我解释如何自动链接安装在亚马逊上的hadoop版本,这样我就可以在不将外部库添加到我的jar的情况下做到这一点吗?非常感谢您的帮助! 最佳答案 所以您正在使用Amazon的ElasticMapReduce!

java - 执行 mapreduce 程序时出现 ClassNotFoundException

我试图在eclipse中执行字数统计程序。但是在执行程序时出现以下错误log4j:ERRORCouldnotinstantiateclass[org.apache.hadoop.log.metrics.EventCounter].java.lang.ClassNotFoundException:org.apache.hadoop.log.metrics.EventCounteratjava.net.URLClassLoader$1.run(URLClassLoader.java:366)atjava.net.URLClassLoader$1.run(URLClassLoader.jav

java - 无法使用 mapreduce.LoadIncrementalHFiles 将 HFiles 加载到 HBase

我想使用HBase批量加载APILoadIncrementalHFiles.doBulkLoad(newPath(),hTable)将我的map-reduce作业的输出插入到HBase表中。我从我的映射器发出KeyValue数据类型,然后使用HFileOutputFormat使用其默认缩减器准备我的HFile。当我运行我的map-reduce作业时,它没有任何错误地完成并创建了输出文件,但是,最后一步-将HFiles插入HBase并没有发生。我的map-reduce完成后出现以下错误:13/09/0803:39:51WARNmapreduce.LoadIncrementalHFiles

hadoop - 灵活的堆空间分配给 Hadoop MapReduce Mapper 任务

我无法找到配置运行MapReduce1的Hadoop集群(CDH4)的最佳方法。我处于这样一种情况,我需要运行两个需要大量Java堆空间的映射器,以至于我不可能在每个节点上运行超过1个映射器——但同时我希望能够运行作业这可以受益于每个节点的许多映射器。我正在通过Cloudera管理UI配置集群,MaxMapTasks和mapred.map.child.java.opts似乎是相当静态的设置。我想要的是一个类似堆空间池的东西,有XGB可用,它可以容纳这两种作业,而不必每次都重新配置MapReduce服务。如果我运行1个映射器,它应该分配XGB堆-如果我运行8个映射器,它应该分配X/8GB