草庐IT

elastic-mapreduce

全部标签

java - 如何在 Apache Spark 中重置 MapReduce 函数上的迭代器

我是Apache-Spark的新手。我想知道如何在ApacheSpark的MapReduce函数中重置指向Iterator的指针,这样我就写了Iterator>>iter=arg0;但它不起作用。以下是在java中实现MapReduce功能的类。classCountCandidatesimplementsSerializable,PairFlatMapFunction>>,Set,Integer>,Function2{privateList>currentCandidatesSet;publicCountCandidates(finalList>currentCandidatesSet

macos - 由 : java. lang.ClassNotFoundException : org. apache.hadoop.mapreduce.InputFormat 引起

我在MACOSX10.9.4中执行sqoop导入并收到如下错误:14/10/2411:51:41INFOsqoop.Sqoop:RunningSqoopversion:1.4.514/10/2411:51:41INFOtool.BaseSqoopTool:UsingHive-specificdelimitersforoutput.Youcanoverride14/10/2411:51:41INFOtool.BaseSqoopTool:delimiterswith--fields-terminated-by,etc.14/10/2411:51:41INFOmanager.MySQLMan

python - 使用 MapReduce 是否可以保证具有相同键的所有值都将进入相同的 reducer?

我有一个正在处理的MapReduce项目(具体来说,我正在使用Python和库MrJob并计划使用Amazon的EMR运行)。这是总结我遇到的问题的示例:我有数千GB的json文件,里面装满了客户数据。我需要去运行每个客户json行/输入/对象的每日、每周和每月报告。所以对于我目前做的map步骤:map_step(_,customer_json_object)c_uuid=customer_json_object.uuidifcustomer_json_object.timeisindaily_time_range:yield"%s-%s"%(DAILY_CONSTANT,c_uuid

hadoop - 如何在终端调试 MapReduce 任务?

有没有一种使用终端模拟MapReduce作业的简单方法?我想知道是否有一种简单的方法可以在编写代码时调试它。 最佳答案 我习惯于使用Python进行Hadoop流式处理,但我相信该解决方案也可以复制到其他语言。所以,这就是我的解决方案:catinput_folder/*|pythonmap.py|排序|pythonreduce.py同样值得一提的是,您可以通过简单地运行来查看reducer接收到的值作为输入:catinput_folder/*|pythonmap.py|排序 关于hado

hadoop - Apache Spark 如何实现比 Hadoop MapReduce 快 100 倍的速度以及在什么场景下?

ApacheSpark[http://spark.apache.org/]声称在内存方面比ApacheHadoop快100倍。它是如何实现这种惊人的加速的?这种加速仅适用于迭代机器学习算法还是适用于ETL(提取-转换-加载)任务,如JOIN和GROUPBY?Spark的RDD(弹性分布式数据集)和DataFrames都可以提供这种加速吗?Spark社区有针对上述部分场景的benchmark测试结果吗? 最佳答案 Spark在内存中进行数据处理。不会像MapReduce那样有中间文件,所以没有I/O或者可以忽略不计。它并没有在所有情况

hadoop - YARN MapReduce 内存不足

我正在尝试在YarnMapReduce中启动我的应用程序。我在4个主机(1个资源管理器和4个节点管理器)中设置了MapReduce。每个主机有2个内核和4GBRAM。当我运行我的应用程序时,它由于缺少RAM[1]而中止。我应该如何设置YarnMapReduce以使作业不会耗尽RAM?[1]我遇到的错误。2016-02-0916:01:41,607INFOorg.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl:MemoryusageofProcessTree1639f

java - 如何在 Hadoop MapReduce java API 中使用 Java 断言?

对于java程序,我们可以使用java-ea启用断言检查。它在hadoop命令中可用吗:hadoopjarsome-mapreduce-program.jarorg.foo.bar.MainJob...这可能吗? 最佳答案 假设Hadoop2+,你可以在你的mapred-site.xml中设置这个属性mapreduce.map.java.opts-ea或者,您可以尝试在客户端选项中导出它:exportHADOOP_CLIENT_OPTS="-ea${HADOOP_CLIENT_OPTS}"hadoopjarsome-mapreduc

hadoop - 在没有 mapred-site.xml 的情况下设置 hadoop mapreduce 大小

我在服务器上运行mapreduce作业,但不断收到此错误:Containerkilledonrequest.Exitcodeis143Containerexitedwithanon-zeroexitcode143Containerisrunningbeyondphysicalmemorylimits.Currentusage:1.0GBof1GBphysicalmemoryused;2.7GBof2.1GBvirtualmemoryused.Killingcontainer.当然我已经阅读了所有可能的资源并且我知道我需要在这些文件中设置配置:ma​​pred-site.xml\\yar

hadoop - Hadoop MapReduce 中的排序和混洗优化

我正在寻找基于Hadoop的研究/实现项目,我偶然发现了维基页面上发布的列表-http://wiki.apache.org/hadoop/ProjectSuggestions.但是,此页面最后一次更新是在2009年9月。因此,我不确定其中的一些想法是否已经实现。我对“MR框架中的排序和随机播放优化”特别感兴趣,它谈到“在随机播放之前组合机架或节点上的几个映射的结果。这可以减少查找工作和中间存储”。有没有人试过这个?这是在当前版本的Hadoop中实现的吗? 最佳答案 有组合器功能(如http://wiki.apache.org/had

hadoop - 使用 Hadoop mapreduce 进行并行缩减

我正在使用Hadoop的MapReduce。我有一个文件作为map函数的输入,map函数做了一些事情(与问题无关)。我希望我的reducer获取map的输出并写入两个不同的文件。在我看来(我想要一个高效的解决方案),我的想法有两种:1个reducer知道识别不同的情况并写入2个不同的上下文。2个并行化简器,每个化简器都知道识别其相关输入,忽略另一个化简器,这样每个化简器都会写入一个文件(每个化简器将写入不同的文件)。我更喜欢第一个解决方案,因为它意味着我将只检查map的输出一次而不是并行两次-但如果第一个在某种程度上不受支持-我会很高兴听到第二个建议的解决方案。*注意:这两个最终文件应