草庐IT

yarn-daemon

全部标签

scala - 限制 yarn 容器一次只能执行一个任务

我正在使用hadoop集群运行Spark程序,它使用yarn调度程序来运行任务。但是,我注意到一个奇怪的行为。yarn有时会杀死提示内存不足错误的任务,而如果我轮流执行任务,即执行与容器/执行程序相同数量的任务,让它们完成,然后执行下一组任务,它运行良好,这意味着任务使用的内存不会超过容器中允许的内存。所以,我怀疑yarn试图在容器中并行运行多个任务,这就是容器内存不足的原因。有没有办法限制这种行为并告诉yarn在容器中一次只运行一个任务。 最佳答案 一般来说,Spark请求的每个YARN容器直接对应一个“执行器”,即使YARN可能

hadoop - 如何知道 Yarn 公平份额调度程序是否发生抢占?

有什么办法可以确定YARN是否触发了抢占机制?可能在YARN资源管理器或日志中? 最佳答案 如果您的日志级别设置为info,您应该会在YARN资源管理器日志中看到它。//Warnapplicationaboutcontainerstobekilledfor(RMContainercontainer:containers){FSAppAttemptapp=scheduler.getSchedulerApp(container.getApplicationAttemptId());LOG.info("Preemptingcontaine

hadoop - yarn 上的 Apache Hive

根据我对博客的理解,Yarn(mapred2)比hadoop的mapreduce更快或更智能。如果它是真的,有没有办法配置Hive以使用Yarn/Mapred2而没有任何复杂性来提高性能或增加资源利用率? 最佳答案 Hive在Yarn的开箱即用映射上运行。但是在Yarn上运行一个旧的Hive不会是惊天动地的体验,你可能会测量相同的时间。您想要的是获得最新的Hive开发和改进(例如ORCandVectorization),也许尝试运行HiveonTez.我建议阅读Stinger并检查这个deploymentguide.

hadoop - 如何在hadoop2(yarn)中使用JobClient

(已解决)我想联系hadoop集群并获取一些工作/任务信息。在hadoop1中,我可以使用JobClient(本地伪分布式模式,使用Eclipse):JobClientjobClient=newJobClient(newInetSocketAddress("127.0.0.1",9001),newJobConf(config));JobIDjob_id=JobID.forName("job_xxxxxx");RunningJobjob=jobClient.getJob(job_id);.....今天我搭建了一个伪分布式hadoop2YARN集群,但是上面的代码并没有运行。我使用资源管理

java - 从 Java 应用程序在 hadoop 2.2 (Yarn) 上启动 mapreduce 作业

我正在尝试从Java应用程序调用mapreduce作业。在以前的hadoop版本(1.x)中,我创建了一个Configuration对象和一个Job对象,在Configuration中设置mapred.job.tracker和fs.default.name并运行Job。现在,在hadoop2.x中,作业跟踪器不再存在,也不存在任何关于如何以编程方式运行MR作业的文档。有什么想法吗?我正在寻找的是此处给出的解释:callmapreducefromajavaprogram 最佳答案 你需要三样东西://thisshouldbeliked

hadoop - yarn : what subsystem connecting to port 44874

我正在尝试在YARN上运行我的MR作业。节点3上的其中一个用户日志中存在此错误:2014-10-1000:57:16,965INFO[main]org.apache.hadoop.mapred.YarnChild:Executingwithtokens:2014-10-1000:57:16,965INFO[main]org.apache.hadoop.mapred.YarnChild:Kind:mapreduce.job,Service:job_1412895371072_0001,Ident:(org.apache.hadoop.mapreduce.security.token.Jo

java.io.IOException : Cannot initialize Cluster in Hadoop2 with YARN 异常

这是我第一次在stackoverflow上发帖,所以如果我做错了什么,我深表歉意。我最近建立了一个新的hadoop集群,这是我第一次尝试使用Hadoop2和YARN。我目前在提交作业时遇到以下错误。java.io.IOException:CannotinitializeCluster.Pleasecheckyourconfigurationformapreduce.framework.nameandthecorrespondserveraddresses.atorg.apache.hadoop.mapreduce.Cluster.initialize(Cluster.java:120)

hadoop - YARN MapReduce 内存不足

我正在尝试在YarnMapReduce中启动我的应用程序。我在4个主机(1个资源管理器和4个节点管理器)中设置了MapReduce。每个主机有2个内核和4GBRAM。当我运行我的应用程序时,它由于缺少RAM[1]而中止。我应该如何设置YarnMapReduce以使作业不会耗尽RAM?[1]我遇到的错误。2016-02-0916:01:41,607INFOorg.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl:MemoryusageofProcessTree1639f

apache-spark - 如何将作业提交到其他集群上的 yarn ?

我有一个安装了spark的docker容器,我正在尝试使用marathon将作业提交到其他集群上的yarn。docker容器具有yarn和hadoopconf目录的导出值,yarn文件还包含emrmasterip的正确地址,但我不确定它从哪里作为本地主机?ENVYARN_CONF_DIR="/opt/yarn-site.xml"ENVHADOOP_CONF_DIR="/opt/spark-2.2.0-bin-hadoop2.6"yarn.xmlyarn.resourcemanager.hostnamexx.xxx.x.xx命令:"cmd":"/opt/spark-2.2.0-bin-h

java - yarn 容器内存不足

我的yarn容器内存不足:这个特定的容器运行一个Apache-Spark驱动程序节点。我不明白的部分:我将驱动程序的堆大小限制为512MB(您可以在下面的错误消息中看到这一点)。但是yarn容器提示内存>1GB(另见下面的消息)。您可以验证yarn正在启动java是否使用Xmx512m运行。我的容器设置为1GB内存,增量为0.5GB。此外,我托管yarn容器的物理机器每个都有32GB。我通过SSH连接到其中一台物理机器,看到它有很多可用内存...另一个奇怪的事情是,java没有抛出OutOfMemory异常。当我查看驱动程序日志时,我发现它最终从yarn获取了一个SIGTERM,并正常