草庐IT

task-switching

全部标签

Hadoop 1.0.3 mapred.map.tasks 属性不工作

我正在使用hadoop1.0.3运行mapreduce作业。我有一个3节点集群设置。问题是我在/conf/mapred-site.xml中将属性mapred.map.tasks设置为20,但是当我运行该作业并使用以下网页访问集群信息时,hadoop仅显示6个maptask:50030。我已经在集群中的所有节点上编辑了上述配置文件。请帮忙。问候,莫辛 最佳答案 正如miguno所说,Hadoop只将mapred.map.tasks的值视为提示。也就是说,当我在使用MapReduce时,我能够通过指定最大计数来增加映射计数。这可能不适合

hadoop - 如何在 hadoop 流中跳过失败的 map task

我正在运行一个hadoop流式mapreduce作业,它总共有26895个映射任务。但是,处理特定输入的任务总是失败。所以我设置了mapreduce.map.failures.maxpercent=1,想跳过失败的任务,但是作业还是没有成功。Kind%CompleteNumTasksPendingRunningCompleteKilledFailed/KilledTaskAttemptsmap100.00%26895002689418/44reduce100.00%100010/1我怎样才能跳过这个? 最佳答案 同样有一个配置可用。

java - Hadoop:你能默默丢弃一个失败的 map task 吗?

我正在使用hadoopMapReduce处理大量数据。问题是,损坏的文件偶尔会导致Map任务抛出Java堆空间错误或类似的错误。如果可能的话,最好丢弃maptask正在做的任何事情,杀死它,然后继续工作,不要在意丢失的数据。我不希望整个M/R工作因此而失败。这在hadoop中可行吗?如何实现? 最佳答案 您可以修改mapreduce.max.map.failures.percent参数。默认值为0。增加此参数将允许一定比例的map任务失败而不会使作业失败。您可以在mapred-site.xml中设置此参数(将应用于所有作业),或逐个

java - 所有 map task 的 Hadoop 缓存文件

我的map函数必须为每个输入读取一个文件。那个文件根本没有改变,它只是为了阅读。我认为分布式缓存可能对我有很大帮助,但我找不到使用它的方法。我认为我需要覆盖的publicvoidconfigure(JobConfconf)函数已被弃用。好吧,JobConf肯定被弃用了。所有DistributedCache教程都使用已弃用的方式。我能做什么?我可以覆盖另一个配置功能吗?这些是我的map函数的第一行:Configurationconf=newConfiguration();//loadtheMFileFileSystemfs=FileSystem.get(conf);PathinFile=

Hadoop - 在xml中增加 map task 不会在运行时增加 map task

我在conf/mapred-site.xml中添加了以下内容mapred.tasktracker.map.tasks.maximum4mapred.tasktracker.reduce.tasks.maximum1但是当我运行该作业时,它仍然运行2个map(这是默认的)?我怎样才能强制这个数字增加?附言我正在使用Ubuntu四核box谢谢 最佳答案 您是否正在处理少量数据?可能是您的MapReduce作业仅在一个输入拆分上运行,因此不需要更多映射器。尝试在数百MB的数据上运行您的作业,看看您是否仍然遇到同样的问题。单个节点上能够运行

java - Hadoop 作业 : Task fail to report status for 601 seconds

在伪节点上运行hadoop作业时,任务失败并被杀死。错误:任务尝试_未能报告状态601秒但相同的程序正在通过Eclipse运行(本地作业)。任务:大约有25K个关键字,输出将是所有可能的组合(一次两个),即大约25K*25K个整体可能是什么问题? 最佳答案 由于某种原因,任务在您的伪节点上执行时没有进行。您可以增加mapred-site.xml中的设置“mapred.task.timeout”。mapred-default.xml中相同的默认值为:mapred.task.timeout600000Thenumberofmillise

java - Spark 异常 : Task failed while writing rows

我正在读取文本文件并将它们转换为parquet文件。我正在使用Spark代码来做这件事。但是当我尝试运行代码时出现以下异常org.apache.spark.SparkException:Jobabortedduetostagefailure:Task2instage1.0failed4times,mostrecentfailure:Losttask2.3instage1.0(TID9,XXXX.XXX.XXX.local):org.apache.spark.SparkException:Taskfailedwhilewritingrows.atorg.apache.spark.sql.

java - 由于 Task attempt failed to report status 600 秒,reduce 失败。杀戮!解决方案?

作业的reduce阶段失败并显示:失败的Reduce任务超出了允许的限制。每个任务失败的原因是:任务attempt_201301251556_1637_r_000005_0未能报告状态达600秒。杀!问题详情:Map阶段接收格式为:time,rid,data的每条记录。数据的格式为:数据元素及其计数。例如:a,1b,4c,7对应一条记录的数据。映射器为每个数据元素输出每条记录的数据。例如:key:(time,a,),val:(rid,data)键:(时间,b,),val:(删除,数据)key:(time,c,),val:(rid,data)每一个reduce从所有的记录中接收同一个ke

streaming - Hadoop 流作业失败 : Task process exit with nonzero status of 137

几天来我一直在努力解决这个问题,希望有人能提供一些见解。我用perl编写了一个流式映射缩减作业,很容易让一个或两个缩减任务花费极长的时间来执行。这是由于数据中的自然不对称性:一些reduce键有超过一百万行,而大多数只有几十行。我以前遇到过长任务的问题,我一直在递增计数器以确保mapreduce不会超时。但是现在他们失败了,并显示了一条我以前从未见过的错误消息:java.io.IOException:Taskprocessexitwithnonzerostatusof137.atorg.apache.hadoop.mapred.TaskRunner.run(TaskRunner.jav

Flink源码-Task执行

上一节我们分析到了Execution的生成,然后调用taskManagerGateway.submitTask方法提交task,提交的时候会将executionVertex封装成TaskDeploymentDescriptor,task的提交与执行涉及到了flink多个组件的配合,之前没有详细讲过,可能有的小伙伴有点不太清楚,这里我们花点时间介绍一下。1.Flink各个组件介绍1.JobManager在JobManager启动的时候会启动三个比较重要的组件:1.WebMonitorEndpoint:里面有大约六七十个handler,如果客户端使用finkrun的方式来提交一个job,最终会由W