草庐IT

yarn-daemon

全部标签

hadoop - 如何为 YARN MapReduce 作业处理容器故障?

YARN如何处理软件/硬件故障?具体来说,如果容器出现故障/崩溃,会发生什么情况? 最佳答案 容器和任务故障由节点管理器处理。当容器发生故障或死亡时,节点管理器会检测到故障事件并启动一个新容器来替换发生故障的容器并在新容器中重新启动任务执行。如果application-master发生故障,资源管理器会检测到故障并使用新容器启动application-master的新实例。查找详情here 关于hadoop-如何为YARNMapReduce作业处理容器故障?,我们在StackOverfl

hadoop - yarn 上的 Spark 提交 - 多项工作

我想用yarn提交多个spark-submit作业。当我运行时spark-submit--classmyclass--masteryarn--deploy-modeclusterblahblah现在,我必须等待作业完成才能提交更多作业。我看到了心跳:16/09/1916:12:41INFOyarn.Client:application_1474313490816_0015的申请报告(状态:RUNNING)16/09/1916:12:42INFOyarn.Client:application_1474313490816_0015的申请报告(状态:RUNNING)我怎样才能让yarn从同一

HADOOP YARN - 应用程序已添加到调度程序,但尚未激活。跳过 AM 分配,因为集群资源为空

我正在为一个项目评估YARN。我正在尝试让简单的分布式shell示例工作。我已将申请提交到提交阶段,但它从未开始。这是从这一行报告的信息:ApplicationReportreport=yarnClient.getApplicationReport(appId);应用程序已添加到调度程序,但尚未激活。跳过AM分配,因为集群资源为空。详细信息:AM分区=DEFAULT_PARTITION;AM资源请求=内存:1024,vCores:1;AM的队列资源限制=内存:0,vCores:0;队列的用户AM资源限制=内存:0,vCores:0;队列AM资源使用=memory:128,vCores:

java - Spark on yarn jar 上传问题

我正在尝试使用sparkoveryarn(CentOS上的ClouderaHadoop5.2)运行一个简单的Map/Reducejava程序。我已经尝试了这两种不同的方式。第一种方式如下:YARN_CONF_DIR=/usr/lib/hadoop-yarn/etc/hadoop/;/var/tmp/spark/spark-1.4.0-bin-hadoop2.4/bin/spark-submit--classMRContainer--masteryarn-cluster--jars/var/tmp/spark/spark-1.4.0-bin-hadoop2.4/lib/spark-ass

hadoop - 单个配置单元应用程序(作业)是否产生多个 yarn 应用程序?

提交给Yarn的单个HIVE查询是否会创建多个作业(即多个YARN应用程序)?在这里,我将工作和应用程序视为YARN上下文中的相同想法。据我了解——Yarn会为每个“应用程序”创建一个应用程序主机(AM)。因此,这里可以将单个HIVE查询视为“应用程序”。因此,资源管理器将在某个节点上创建容器并在该容器中启动AM。该容器反过来可能会创建多个“任务”(不是应用程序),即为该AM保留的其他容器内的映射器和缩减器(在相同或不同的节点上——这在这里并不重要)。现在,所有这些ApplicationMaster的集合都致力于解决提交给YARN的单个HIVE查询。事实上,这就是为什么我们说AM是针对

hadoop - YARN "Fair Scheduler"如何使用spark-submit配置参数

我有一个关于YARN“FairScheduler”的基本问题。根据thedefinition“公平调度程序-公平调度是一种将资源分配给应用程序的方法,以便所有应用程序平均随着时间的推移获得相等的资源份额”。以下是我的理解和疑问。(1)如果多个应用程序在YARN上运行,那么它将确保所有应用程序在一段时间内或多或少地获得相等的资源份额。(2)我的问题是,如果在YARN中这个属性设置为true那么如果我们在提交spark-submit时使用以下配置会有什么不同吗?(i)driver-memory(ii)executor-memory(iii)num-executors(iv)executor

hadoop - YARN vcore中的virtual core是什么意思?

Yarn使用虚拟核心的概念来管理CPU资源。我会问使用虚拟核心有什么好处,YARN使用虚拟核心有什么原因吗? 最佳答案 这是文档中的内容(强调我的)Anode'scapacityshouldbeconfiguredwithvirtualcoresequaltoitsnumberofphysicalcores.Acontainershouldberequestedwiththenumberofcoresitcansaturate,i.e.theaveragenumberofthreadsitexpectstohaverunnablea

hadoop - 在 PySpark 中设置 YARN 队列

在PySpark中创建Spark上下文时,我通常使用以下代码:conf=(SparkConf().setMaster("yarn-client").setAppName(appname).set("spark.executor.memory","10g").set("spark.executor.instances","7").set("spark.driver.memory","5g").set("spark.shuffle.service.enabled","true").set("spark.dynamicAllocation.enabled","true").set("spar

hadoop - yarn.log.dir 在哪里定义的?

在yarn-default.xml对于ApacheHadoop3.0.0,它将yarn.nodemanager.log-dirs的默认值显示为${yarn.log.dir}/userlogs。yarn.log.dir在哪里定义的?它有默认值吗?我没有在任何默认配置(core-default.xml、hdfs-default.xml、mapred-default.xml、yarn-default.xml)中找到它。我没有在任何环境脚本(hadoop-env.sh、httpfs-env.sh、kms-env.sh、mapred-env.sh、yarn-env.sh)中找到它。同样让我感到困

apache-spark - yarn 容器故障引起的 Spark

Forreference:IsolvedthisissuebyaddingNetty4.1.17inhadoop/share/hadoop/common无论我尝试运行什么jar(包括来自https://spark.apache.org/docs/latest/running-on-yarn.html的示例),在Yarn上运行Spark时,我总是收到有关容器故障的错误。我在命令提示符中收到此错误:Diagnostics:Exceptionfromcontainer-launch.Containerid:container_1530118456145_0001_02_000001Exitc