草庐IT

hadoop - 有人在 hadoop 流媒体作业中使用过 mapred.job.tracker=local 吗?

在过去的几周里,我们每天都使用hadoopstreaming来计算一些报告。最近我们对我们的程序进行了更改,如果输入大小小于10MB,我们将在JobConf中设置mapred.job.tracker=local,然后作业将在本地运行。但是昨晚,许多作业都失败了,runningJob.getJobState()返回了状态3。我不知道为什么,stderr里什么也没有。我无法用谷歌搜索与此问题相关的任何内容。所以我想知道我是否应该在生产模式下使用mapred.job.tracker=local?也许它只是hadoop提供的开发中的调试解决方案。有人知道吗?任何信息,任何信息,谢谢。

hadoop - 为什么hadoop jobtracker reducer进度条不能达到100%,但是这个job已经完成了

我使用hadoop0.20.0在4个节点的集群上运行一个程序。但是,当我查看jobtracker:50030时,发现hadoopjobtrcker显示reducer进度条无法达到100%,但是jobs已经成功完成。截图如下。我真的很好奇为什么会这样。但是,我的工作已成功完成。 最佳答案 这看起来像是获取进度报告的jobtracker中的错误。然而,由于Hadoop0.20.0于2009年发布并且有quiteafewreleasessincethen-这是一个有争议的问题 关于hadoop

hadoop - 运行 pig 脚本给出错误 : job has failed. Stop running all dependent jobs

我需要帮助来了解为什么在运行pig脚本时出现错误。但是当我在较小的数据中尝试相同的脚本时,它会成功执行。有几个类似问题的问题,但没有一个有解决方案。我的脚本是这样的:A=load‘test.txt’usingTextLoader();B=foreachAgenerateSTRSPLIT($0,’”,”’)ast;C=FILTERBBY(t.$1==2andt.$2matches‘.*xxx.*’);StoreCintotemp;错误是:org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLaunch

hadoop - 如何让Hadoop Pig Job更可靠?

我有一个pig作业,计划每天通过Hadoop作业调度程序运行。它有时工作得很好,但偶尔会因以下错误而失败。每天它都会报告不同的失败原因。第一天:Error:java.io.IOException:Nospaceleftondevice第2天:ENOENT:Nosuchfileordirectory第三天:Losttasktracker:tracker_bos-hadoop14.co.com:localhost/127.0.0.1:48865第4天:Losttasktracker:tracker_bos-hadoop11.co.com:localhost/127.0.0.1:46408请

shell - 如何使用 Shell 脚本修改 job.properties 文件并运行 Oozie 脚本?

我有一个Oozie工作流程,本质上是1.SqoopsfromOracletoHDFS2.RunsMapReduceontheData3...我希望能够运行一个shell脚本来传递一个用于Sqoop操作的where子句。./run.sh"birth_date我希望将参数传递给配置OozieSqoop参数的job.properties文件,该参数传递给工作流。执行此操作的最佳方法是什么? 最佳答案 如果我没理解错的话,你可以有一个job.properties_template文件,其中有一行sqoop-where-arg=WHERE_P

eclipse - 在Mapreduce中做job chaining时,如何解决chainmapper is not applicable for the arguments错误?

我正在使用Hadoop1.2.1,eclipsejuno。我正在尝试在单个Mapreduce作业中链接三个maptask。在Eclipse中编写Mapreduce代码时,出现错误,例如chainmapper不适用于参数,而且我无法设置输入路径。以下是我的mapreduce代码,packageorg.myorg;importjava.io.IOException;importjava.net.URI;importjava.nio.file.FileSystem;importjava.util.StringTokenizer;importjavax.security.auth.login.

java - map reduce 程序在线程 "main"java.io.IOException : Job failed 中显示错误异常

我正在尝试运行我的mapreduce程序。在我尝试运行它之后,输出如下。(我只显示输出的最后一部分)FileSystemCountersFILE:Numberofbytesread=3052FILE:Numberofbyteswritten=224295FILE:Numberofreadoperations=0FILE:Numberoflargereadoperations=0FILE:Numberofwriteoperations=0HDFS:Numberofbytesread=0HDFS:Numberofbyteswritten=0HDFS:Numberofreadoperatio

hadoop - 如何在MapReduce 框架中编写JOB1 和JOB2 之间的顺序代码?

我有一个包含2个作业的MapReduce应用程序。我需要在Job1和Job2之间运行一小段代码。换句话说,一个小代码在Job1的最终输出上运行,Job2中的所有映射器都能够使用这个小代码的输出。这段小代码不需要并行运行。它是一个顺序代码,应该在单台机器上运行并在HDFS中写入输出。我想知道如何在我的应用程序代码中编写Job1和Job2之间的顺序代码,它将在一台机器上运行并读取的输出Job1来自HDFS,并将其自己的输出也写入HDFS。 最佳答案 在您的驱动程序(主)类中,在执行Job1之后(通常是JobClient.runJob(c

hadoop - CDH5 中的 Oozie 不获取 mapreduce.job.counters.max

当我运行一个oozie工作流,该工作流运行创建超过120个计数器的mapreduce-action(120是允许的默认最大计数器数)时,我收到一条错误消息,提示“计数器太多”。我已将mapreduce.job.counters.max设置为高于120的数字,但oozie似乎没有接受它。我在CDH5.1上使用hadoop2.3有没有人遇到过这种情况? 最佳答案 解决方案是将以下内容添加到YARNServiceMapReduceAdvancedConfigurationSnippet(SafetyValve):mapreduce.job

java - Mahout 在行动 : Chapter 06: Wikipedia job fails with java. lang.ArrayIndexOutOfBoundsException

我使用的hadoop版本是$hadoopversionHadoop2.5.0-cdh5.2.0Subversionhttp://github.com/cloudera/hadoop-re1f20a08bde76a33b79df026d00a0c91b2298387Compiledbyjenkinson2014-10-11T21:00ZCompiledwithprotoc2.5.0Fromsourcewithchecksum309bccd135b199bdfdd6df5f3f4153dThiscommandwasrunusing/DCNFS/applications/cdh/5.2/ap