草庐IT

job-status

全部标签

java - 由于 Task attempt failed to report status 600 秒,reduce 失败。杀戮!解决方案?

作业的reduce阶段失败并显示:失败的Reduce任务超出了允许的限制。每个任务失败的原因是:任务attempt_201301251556_1637_r_000005_0未能报告状态达600秒。杀!问题详情:Map阶段接收格式为:time,rid,data的每条记录。数据的格式为:数据元素及其计数。例如:a,1b,4c,7对应一条记录的数据。映射器为每个数据元素输出每条记录的数据。例如:key:(time,a,),val:(rid,data)键:(时间,b,),val:(删除,数据)key:(time,c,),val:(rid,data)每一个reduce从所有的记录中接收同一个ke

streaming - Hadoop 流作业失败 : Task process exit with nonzero status of 137

几天来我一直在努力解决这个问题,希望有人能提供一些见解。我用perl编写了一个流式映射缩减作业,很容易让一个或两个缩减任务花费极长的时间来执行。这是由于数据中的自然不对称性:一些reduce键有超过一百万行,而大多数只有几十行。我以前遇到过长任务的问题,我一直在递增计数器以确保mapreduce不会超时。但是现在他们失败了,并显示了一条我以前从未见过的错误消息:java.io.IOException:Taskprocessexitwithnonzerostatusof137.atorg.apache.hadoop.mapred.TaskRunner.run(TaskRunner.jav

java - Hadoop : Provide directory as input to MapReduce job

我正在使用ClouderaHadoop。我能够运行简单的mapreduce程序,我提供一个文件作为MapReduce程序的输入。此文件包含所有其他要由mapper函数处理的文件。但是,我卡在了一点。/folder1-file1.txt-file2.txt-file3.txt如何将MapReduce程序的输入路径指定为"/folder1",以便它可以开始处理该目录中的每个文件?有什么想法吗?编辑:1)首先,我提供了inputFile.txt作为mapreduce程序的输入。它运行良好。>inputFile.txtfile1.txtfile2.txtfile3.txt2)但是现在,我不想提

hadoop - hadoop job -kill job_id 和 yarn application -kill application_id 有什么区别

hadoopjob-killjob_id和yarnapplication-killapplication_id有什么区别?job_id和application_id是否代表/指代同一个任务? 最佳答案 hadoopjob-killjob_id和yarnapplication-killapplication_id这两个命令都用于终止在Hadoop上运行的作业。如果您正在使用MapReduceVersion1(MRV1)并且您想要终止在Hadoop上运行的作业,那么您可以使用hadoopjob-killjob_id杀死一个工作,它会杀死

scala - Spark : long delay between jobs

所以我们正在运行提取数据并进行一些扩展数据转换并写入几个不同文件的spark作业。一切都运行良好,但我在资源密集型作业完成和下一个作业开始之间出现随机的扩展延迟。在下图中,我们可以看到安排在17:22:02的作业用了15分钟才完成,这意味着我预计下一个作业将安排在17:37:02左右。但是,下一个工作安排在22:05:59,即工作成功后+4小时。当我深入研究下一个作业的sparkUI时,它显示(Spark1.6.1与Hadoop2)更新:我可以确认大卫在下面的回答是关于如何在Spark中处理IO操作的,这有点出乎意料。(考虑到排序和/或其他操作,文件写入本质上是在幕后“收集”是有意义的

hadoop - org.apache.hadoop.mapreduce.Job 的所有三个构造函数都已弃用,构造 Job 类的最佳方法是什么?

全部threeconstructorsoforg.apache.hadoop.mapreduce.Job已弃用,有没有办法以非弃用的方式构建Job类?谢谢。 最佳答案 我会忽略弃用警告并坚持使用“mapred”包,而不是“mapreduce”。这个JIRAMAPREDUCE-1734删除了0.20.3的弃用。 关于hadoop-org.apache.hadoop.mapreduce.Job的所有三个构造函数都已弃用,构造Job类的最佳方法是什么?,我们在StackOverflow上找到一

hadoop - jobconf 和 job 之间的基本区别是什么?

嗨,我想知道jobconf和工作对象之间的基本区别,目前我正在这样提交我的工作JobClient.runJob(jobconf);我看到了像这样提交工作的其他方式Configurationconf=getConf();Jobjob=newJob(conf,"secondarysort");job.waitForCompletion(true);return0;我如何使用jobconf为作业指定sortcomparator类?谁能给我解释一下这个概念? 最佳答案 简而言之:JobConf和org.apache.hadoop.mapre

php - 无法在 Amazon EC2 上设置 cron-job

我有一个AmazonEC2实例(Ubuntu服务器13.04-64位[ami-bf1d8a8f])运行我的网站。我需要设置一个CronJob来每天收到电子邮件提醒。有没有人有任何建议或可能的解决方案?感谢您的宝贵时间。 最佳答案 这与通过命令行在任何其他服务器上设置cron作业一样。通过SSH连接导航到/etc/cron.daily制作一个运行/调用PHP脚本以发送电子邮件/其他任务的新脚本确保其可执行您可以使用诸如wget-q-Otemp.txthttp://www.site.com/cron.php之类的命令来调用PHP脚本,或

php - Zend 框架 2 : not able to send desired status code in response

我正在ZendFramework2上构建RESTAPI。我想在发生任何错误时发送特定状态代码作为响应。我在我的Controller中尝试了以下:$statusCode=401;$this->response->setStatusCode($statusCode);returnnewJsonModel(array("errormessage"=>"errordescription"));回显状态码打印401,但客户端应用每次都得到状态码200。如何将状态码设置为特定值?模块.php:classModule{publicfunctiongetAutoloaderConfig(){retur

php - 主管 "exit status 1 not expected"运行 php 脚本

我在尝试配置supervisor以运行php脚本时遇到问题。在Debug模式下运行主管给了我这个:2015-03-0908:53:06,342INFOsupervisordstartedwithpid20302015-03-0908:53:06,358INFOspawned:'worker1'withpid20312015-03-0908:53:06,423INFOexited:worker1(exitstatus1;notexpected)2015-03-0908:53:06,424INFOreceivedSIGCLDindicatingachildquit2015-03-0908: