草庐IT

Elastic-Job

全部标签

hadoop - Amazon Elastic MapReduce 引导操作不工作

我已经尝试了以下引导操作组合来增加我的作业的堆大小,但它们似乎都不起作用:--mapred-key-valuemapred.child.java.opts=-Xmx1024m--mapred-key-valuemapred.child.ulimit=unlimited--mapred-key-valuemapred.map.child.java.opts=-Xmx1024m--mapred-key-valuemapred.map.child.ulimit=unlimited-mmapred.map.child.java.opts=-Xmx1024m-mmapred.map.child.

r - 理解 R-Hive、Elastic MapReduce、RHIPE 和使用 R 的分布式文本挖掘

在我最近在Google实习期间学习了MapReduce来解决计算机视觉问题之后,我觉得自己像一个开明的人。我已经在使用R进行文本挖掘了。我想将R用于大规模文本处理和主题建模实验。我开始阅读教程并研究其中的一些。我现在将我对每个工具的理解写下来:1)R文本挖掘工具箱:用于本地(客户端)文本处理,它使用XML库2)Hive:Hadoopinterative,提供调用map/reduce的框架,也提供DFS接口(interface),用于在DFS上存储文件。3)RHIPE:RHadoop集成环境4)ElasticMapReducewithR:一个为那些没有自己的集群的人准备的MapReduc

hadoop - JA017 : Could not lookup launched hadoop Job ID

在Hue中的OozieEditor中提交mapreduce作业时如何解决这个问题?:JA017:无法查找与操作[0000009-150711083342968-oozie-root-W@mapreduce-f660]关联的hadoop作业ID[job_local152843681_0009]。此操作失败!更新:Herearelogfile:2015-07-1504:54:40,304INFOActionStartXCommand:520-SERVER[myserver]USER[root]GROUP[-]TOKEN[]APP[My_Workflow]JOB[0000010-150711

python - 使用 Spark,如何连接 master 或解决错误 :"WARN TaskSchedulerImpl: Initial job has not accepted any resources"

请告诉我如何解决以下问题。首先,我确认以下代码在master为“本地”时运行。然后我启动了两个EC2实例(m1.large)。但是,当master为“spark://MASTER_PUBLIC_DNS:7077”时,会出现错误消息“TaskSchedulerImpl”并且失败。当我从VALID地址更改为Master(spark://INVALID_DNS:7077)的INVALID地址时,会出现相同的错误消息。即,"WARNTaskSchedulerImpl:Initialjobhasnotacceptedanyresources;检查您的集群UI以确保工作人员已注册并有足够的内存"好

r - Amazon Elastic MapReduce 上的 R 映射器脚本故障排除 - 结果不符合预期

我正在尝试使用AmazonElasticMapReduce运行数百万个案例的一系列模拟。这是一个没有reducer的Rscript流作业。我在我的EMR调用--reducerorg.apache.hadoop.mapred.lib.IdentityReducer中使用IdentityReducer。脚本文件在手动传递一行字符串时从Linux机器上的命令行本地测试和运行时工作正常echo"1,2443,2442,1,5"|./mapper.R然后我得到了我期望的一行结果。但是,当我使用EMR上的输入文件中的大约10,000个案例(行)测试我的模拟时,在10,000个输入行中,我只得到了十

python - Hadoop Streaming Job 在 python 中失败

我有一个用Python编写的mapreduce作业。该程序在linuxenv中测试成功,但在Hadoop下运行时失败。这是作业命令:hadoopjar$HADOOP_HOME/contrib/streaming/hadoop-0.20.1+169.127-streaming.jar\-input/data/omni/20110115/exp6-10122-output/home/yan/visitorpy.out\-mapperSessionMap.py-reducerSessionRed.py-fileSessionMap.py\-fileSessionRed.pySession*.

java - Hadoop : Provide directory as input to MapReduce job

我正在使用ClouderaHadoop。我能够运行简单的mapreduce程序,我提供一个文件作为MapReduce程序的输入。此文件包含所有其他要由mapper函数处理的文件。但是,我卡在了一点。/folder1-file1.txt-file2.txt-file3.txt如何将MapReduce程序的输入路径指定为"/folder1",以便它可以开始处理该目录中的每个文件?有什么想法吗?编辑:1)首先,我提供了inputFile.txt作为mapreduce程序的输入。它运行良好。>inputFile.txtfile1.txtfile2.txtfile3.txt2)但是现在,我不想提

hadoop - hadoop job -kill job_id 和 yarn application -kill application_id 有什么区别

hadoopjob-killjob_id和yarnapplication-killapplication_id有什么区别?job_id和application_id是否代表/指代同一个任务? 最佳答案 hadoopjob-killjob_id和yarnapplication-killapplication_id这两个命令都用于终止在Hadoop上运行的作业。如果您正在使用MapReduceVersion1(MRV1)并且您想要终止在Hadoop上运行的作业,那么您可以使用hadoopjob-killjob_id杀死一个工作,它会杀死

aggregate - Elastic MapReduce 中的可用缩减器

我希望我是以正确的方式提出这个问题。我正在学习使用ElasticMapReduce的方法,并且看到了很多关于可与“流式”作业流一起使用的“聚合”reducer的引用资料。在Amazon的“AmazonElasticMapReduce简介”PDF中,它指出“AmazonElasticMapReduce有一个名为aggregrate的默认缩减器”我想知道的是:还有其他可用的默认reducer吗?我知道我可以编写自己的reducer,但我不想最终编写已经存在的东西并“重新发明轮子”,因为我确信我的轮子不会像原来的那样好。 最佳答案 他们引

hadoop - 如何使用 Elastic MapReduce API 在一个步骤中向 Hadoop 提交多个作业?

AmazonEMRDocumentationtoaddstepstocluster表示单个ElasticMapReduce步骤可以向Hadoop提交多个作业。然而,AmazonEMRDocumentationforStepconfiguration建议单个步骤只能执行一次hadoop-streaming.jar(也就是说,HadoopJarStep是一个HadoopJarStepConfig而不是一组HadoopJarStepConfigs)。一次向Hadoop提交多个作业的正确语法是什么? 最佳答案 赞AmazonEMRDocum