草庐IT

task-switching

全部标签

python - Hadoop 2.7 : MapReduce task's total time using streaming API

我在本地集群上运行Hadoop2.7.1(所有节点都运行Ubuntu14.x或更高版本)。我的mapreduce程序是用Python编写的,我正在使用流式API来运行任务。我想找出所有节点上的所有映射任务所花费的总时间。怎么做?我找不到作业文件。(可能从Hadoop2.x开始删除)。 最佳答案 如果您正在寻找在所有任务中花费的所有聚合时间总和,您可能需要查看计数器。这些可以在作业历史服务器上查看,也可以在深入了解单个作业后单击左侧的Counters,或者您可以使用mapredjob命令以编程方式更多地执行此操作,例如,要打印出SUC

java - 在 HIVE 中运行 UDF 以进行自定义反序列化时出现 OWN_TASK_FAILURE。

我正在编写一个配置单元脚本来从源中提取数据并将其添加到不同的目的地。存储在源中的数据采用自定义格式。因此,我使用HiveUDF获取数据,反序列化并返回List(我试过List)。我创建了一个包含4个字符串参数的Hive表(HIVE_TABLE)并运行以下配置单元查询。>INSERTOVERWRITETABLEHIVE_TABLESELECTudfFunction(colName)[0],udfFunction(colName)[1],udfFunction(colName)[2],udfFunction(colName)[3]fromsourceTable;其中“udfFunction

hadoop - cleanup() 方法是否为失败的 map task 调用?

是否为失败的maptask调用了cleanup()方法?如果是这样,它如何确保“原子性”?在我的例子中,我正在映射器中准备一些统计信息,这些统计信息在cleanup()方法中写入数据库。在这种情况下,如果映射器在执行其输入拆分的过程中失败,清理方法会将till处理后的数据写入DB?这将导致不正确的统计信息,因为备用映射器尝试也会再次写入相同的数据。 最佳答案 根据您的映射器何时失败,可能会调用或不调用清理。例如,如果您的映射器在map方法中失败,则不会调用清理。但是,如果您的映射器在清理方法中失败,则清理已经被调用。如果映射器失败,

c# - "Failed Map Tasks exceeded allowed limit"来自 Hadoop 的错误

当我使用C#运行MapReduce示例应用程序时出现“失败的maptask超出允许的限制”错误,如下所示。谁能告诉我为什么它一直向我显示此错误?欣赏它。publicoverridevoidMap(stringinputLine,MapperContextcontext){//ExtractthenamespacedeclarationsintheCsharpfilesvarreg=newRegex(@"(using)\s[A-za-z0-9_\.]*\;");varmatches=reg.Matches(inputLine);foreach(Matchmatchinmatches){/

hadoop - 关闭推测执行的 Wordcount : More than 1 map task per block,

在Wordcount中,您似乎可以在每个block中获得超过1个maptask,并关闭推测执行。jobtracker是否在幕后做了一些魔术来分配比InputSplits提供的更多的任务? 最佳答案 区block和拆分是两种不同的东西。如果一个block有多个拆分,您可能会为一个block获得多个映射器。 关于hadoop-关闭推测执行的Wordcount:Morethan1maptaskperblock,,我们在StackOverflow上找到一个类似的问题:

hadoop - 为什么我的 Hadoop 作业得到 Map task num = 1 ,并生成了 300 多个结果文件?

我有这样一份Hadoop工作。MR只有map,没有reduce。所以设置job.setNumReduces(0)。输入文件约300+然后我运行作业,我可以看到只有1个maptask在运行。完成它大约需要1个小时。然后我检查结果,我可以在输出文件夹中看到300多个结果文件。有什么问题吗?或者这是正确的做法?我真的希望Map应该等于输入文件的数量(而不是1)。我也不知道为什么输出文件数与输入文件数相同。hadoop作业是从oozie提交的。非常感谢您的热心帮助。新松 最佳答案 当您将reducer数量设置为0时,生成的输出对应于map任

hadoop - map task 是否并行读取其输入数据?

假设HDFS的复制因子是3,那么对于一个map任务,有三个节点保存它的输入数据。map任务是从所有3个节点并行读取还是随机选择其中一个?我做了一些实验,我将其中一个数据节点设置为具有非常低的带宽并获得一些非常慢的maptask,所以我猜maptask不会并行读取所有可用的数据节点,我是对的?感谢您的帮助! 最佳答案 如果您的复制因子是3,则集群中有三个节点保存特定映射任务的输入数据。JobTracker只会将map任务分配给这三个节点中的一个,因此它只会从该节点读取数据。Hadoop具有称为推测执行的功能。在推测执行中,如果JobT

hadoop - 避免 "The number of tasks for this job 100325 exceeds the configured limit"错误

我有一个每周在生产集群上运行的Pig脚本。在上次运行中我得到了以下错误org.apache.pig.backend.executionengine.ExecException:ERROR6017:Jobfailed!Error-Jobinitializationfailed:java.io.IOException:Thenumberoftasksforthisjob100325exceedstheconfiguredlimit100000atorg.apache.hadoop.mapred.JobInProgress.initTasks(JobInProgress.java:719)a

hadoop - Spark + yarn 簇: how can i configure physical node to run only one executor\task each time?

我的环境包含4个物理节点和少量RAM,每个节点有8个CPU内核。我注意到spark会自动决定为每个CPU分配RAM。结果是发生了内存错误。我正在处理大数据结构,我希望每个执行程序都将在物理节点上拥有整个RAM内存(否则我会遇到内存错误)。我尝试在“yarn-site.xml”文件上配置“yarn.nodemanager.resource.cpu-vcores1”或在spark-defaults.conf上配置“spark.driver.cores1”但没有成功。 最佳答案 尝试设置spark.executor.cores1

Hadoop 基础 :Number of map tasks mappers reduce tasks reducers

映射器和映射任务有什么区别?同样,reducer和reduce任务?此外,在执行mapreduce任务期间如何确定映射器、maptasks、reducer、reducetasks的数量?如果有的话,给出它们之间的相互关系。 最佳答案 简单来说maptask就是Mapper的一个实例。Mapper和reducer是mapreduce作业中的方法。当我们运行mapreduce作业时,生成的map任务数取决于输入中的block数(block数取决于输入拆分)。然而,reduce任务的数量可以在mapreduce驱动程序代码中指定。可以通过