草庐IT

configuration - 能够限制 hadoop hive mapred 作业的最大 reducer ?

我试过在查询前加上:setmapred.running.reduce.limit=25;和sethive.exec.reducers.max=35;最后一个将530个reducer的工作减少到35...这让我觉得它会尝试将530个reducer的工作值(value)降低到35个。现在给setmapred.tasktracker.reduce.tasks.maximum=3;尝试查看该数字是否是每个节点的某种最大值(之前在具有70个潜在reducer的集群上为7)。更新:setmapred.tasktracker.reduce.tasks.maximum=3;没有效果,但值得一试。

Hadoop 管道和新的 mapred 包

是否正在进行将Hadoop管道从mapred移植到mapreduce包的工作?谢谢,梅格 最佳答案 JIRA问题MAPREDUCE-1362解决了将管道升级到新的mapreduceAPI的问题,但是,它自2010年1月以来就没有更新过。与此同时,我继续使用旧的mapredAPI来开发C++映射器和缩减器。 关于Hadoop管道和新的mapred包,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/que

ruby - 如何使用 Ruby 在 MapR HDFS 中保存文件

有没有办法使用来自Ruby的Hadoop的MapR分发将文件保存在HDFS中?显然,有一个名为thriftfs的ThriftAPI可以从客户端与HDFS通信,但看起来它没有与MapR捆绑在一起。 最佳答案 我也在http://answers.mapr.com/questions/1525/how-to-run-thriftfs-from-mapr?page=1#1528回答了这个问题基本思想是像Ruby这样的语言不需要语言特定的绑定(bind)来访问MapR集群的文件系统。相反,您需要做的就是将集群挂载为NFS文件系统,您可以进行任

hadoop - 为什么包 org.apache.hadoop.mapred 中的大部分类都被弃用了?

我最近在学习Hadoop,我很好奇为什么org.apache.hadoop.mapred中的大部分类都被弃用了。这很烦人,因为Hadoop0.20之前和之后的MapReduce中使用的包名和类名非常相似,这使得学习Hadoop变得更加困难。但是,我认为贡献者做出这样的决定一定有一些充分的理由。有谁知Prop体原因吗? 最佳答案 检查this和this有关开发新API及其信息背后的合理性的博客。请注意,旧API未得到认可,并且某些类尚未从旧API移植到新API。除非有特定要求,否则可以使用旧API。

hadoop - Hadoop 中的 mapred.child.javaopts 参数 - 读取序列化的 HashMap

我有一个1.5GB的文件,其中包含一个序列化的HashMap。我在Mapper类中有一个setup()方法,我正在将其读入HashMap变量。看起来它可以转到读取方法,但立即为任务抛出java堆空间错误。我阅读了许多关于我们可能需要设置mapred.child.opts参数的讨论,我正在主程序代码中这样做。我正在使用:conf.set("mapred.child.java.opts.","-Xmx1024M");我什至尝试增加数量。为什么它在尝试将序列化文件读入HashMap变量时仍然不断抛出相同的错误?这是我的setup()方法中的代码:try{test="hello";Pathpt

java - Words Count 输出显示 mapred 而不是 mapreduce

我刚刚将我的Ubuntu13.10配置为在伪分布式模式下工作以进行mapreduce代码开发。我已经安装了hadoop0.20.2版本的hadoop。一切都运行良好,我也可以启动所有五个守护进程。在同一台机器上,我下载了eclipse并将所有基于hadoop的库添加到其中。我也可以直接从EclipseIDE运行我的map减少字数示例。唯一困扰我的是,当我运行字数统计示例时,它会在控制台中打印如下内容:13/09/2316:11:05WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...us

hadoop - 如何选择${mapred.local.dir}?

如果我配置了几个${mapred.local.dir}目录来存储MapTask的即时结果,这些目录挂载在不同的磁盘上。我的问题是:1.LocalDirAllocator.java是否用于管理${mapred.local.dir}目录?2.LocalDirAllocator.java的方法getLocalPathForWrite()是用来选择一个${mapred.local.dir}目录的? 最佳答案 1.WhetherLocalDirAllocator.javaisusedtomanage${mapred.local.dir}dir

java - Hadoop:从 o.a.h.mapred 实现接口(interface),还是从 o.a.h.mapreduce 扩展类?

我正在学习Hadoop(0.20.205),我有点困惑。推荐哪种方式:A)从org.apache.hadoop.mapred实现Mapper和Reducer接口(interface),并使用JobConf,如PiEstimator示例中所示。B)从org.apache.hadoop.mapreduce扩展Mapper和Reducer类,并使用Job,如WordCount示例中所示。哪一个更有可能在未来被淘汰?Hbase(0.90.4)似乎更喜欢第二种方式,因为o.a.h.h.mapred中的TableOutputFormat已被弃用,而中的TableOutFormat>o.a.h.h.

hadoop mapred 作业 - 初始化尝试 mapred 任务时出错

我不小心删除了hadoop.tmp.dir,在我的例子中是/tmp/{user.name}/*。现在每次当我从CLI运行配置单元查询时,mapred作业将在任务尝试时失败,如下所示:Errorinitializingattempt_201202231712_1266_m_000009_0:org.apache.hadoop.util.DiskChecker$DiskErrorException:Couldnotfindanyvalidlocaldirectoryforttprivate/taskTracker/hdfs/jobcache/job_201202231712_1266/jo

hadoop - org.apache.hadoop.mapred.YarnChild : Error running child : java. lang.OutOfMemoryError: Java 堆空间

我有一个90MB的snappy压缩文件,我试图将其用作AWSEMR中AMI3.0.4上的Hadoop2.2.0的输入。我的记录阅读器在尝试读取文件时立即收到以下异常:2014-05-0614:25:34,210FATAL[main]org.apache.hadoop.mapred.YarnChild:Errorrunningchild:java.lang.OutOfMemoryError:Javaheapspaceatorg.apache.hadoop.io.compress.BlockDecompressorStream.getCompressedData(BlockDecompre