草庐IT

yarn-site

全部标签

hadoop - 使用 MASTER=yarn-cluster 运行 HiveFromSpark 示例

我正在尝试运行HiveFromSpark我的EMRSpark/Hive集群上的示例。问题使用yarn-client:~/spark/bin/spark-submit--masteryarn-client--num-executors=19--classorg.apache.spark.examples.sql.hive.HiveFromSpark~/spark/lib/spark-examples-1.3.0-hadoop2.4.0.jar就像一个魅力。但是,使用yarn-cluster:~/spark/bin/spark-submit--masteryarn-cluster--num

hadoop - hadoop mr1 和 yarn 和 mr2 之间的区别?

谁能告诉我MR1和yarn和MR2有什么区别我的理解是MR1将具有以下组件名称节点,二级名称节点,数据节点,工作追踪器,任务追踪器yarn节点管理器资源管理器Yarn是由MR1还是MR2组成的(或者MR2和Yarn都是一样的?)对不起,如果我问的是基本水平的问题 最佳答案 MRv1使用JobTracker创建任务并将其分配给任务跟踪器,当集群扩展到足够大(通常大约4,000个集群)时,这可能成为资源瓶颈。MRv2(又名YARN,“YetAnotherResourceNegotiator”)每个集群都有一个资源管理器,每个数据节点都运

hadoop - 简单 Yarn 应用程序的 NoClassDefFoundError

我试图从simple-yarn-app运行简单的yarn应用程序.但是我的应用程序错误日志中出现以下异常。Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/hadoop/yarn/conf/YarnConfigurationatjava.lang.Class.getDeclaredMethods0(NativeMethod)atjava.lang.Class.privateGetDeclaredMethods(Class.java:2531)atjava.lang.Class.getMethod0(Clas

hadoop - 为 YARN/Hadoop2 作业设置 LD_LIBRARY_PATH 或 java.library.path

我有一个HadoopFileSystem,它使用带有JNI的本地库。显然,我必须独立于当前执行的作业来包含共享对象。但是我找不到告诉Hadoop/Yarn应该在哪里寻找共享对象的方法。我使用以下解决方案部分成功,同时使用yarn启动wordcount示例。在启动资源和节点管理器时设置exportJAVA_LIBRARY_PATH=/path。这有助于资源和节点管理器,但实际的作业/应用程序失败了。在执行wordcount示例时打印LD_LIBRARY_PATH和java.library.path会产生以下结果。什么/logs/userlogs/application_x/contain

hadoop - 当 Name Node 在 YARN 中失败时,工作状态是什么?

当一个job在集群中运行时,如果NameNode突然挂了,那么这个job的状态是什么(failed或者killed)?如果失败意味着谁在更新作业状态?这在内部是如何工作的? 最佳答案 备用Namenode将通过故障转移过程变为事件Namenode。看看HowdoesHadoopNamenodefailoverprocessworks?YARN架构围绕着ResourceManager、NodeManager和ApplicationsMaster。作业将继续进行,而不会因名称节点故障而受到任何影响。如果以上三个进程中的任何一个失败,将根

hadoop - spark-submit --proxy-user 在 yarn 集群模式下不工作

目前我使用的是clouderahadoop单节点集群(启用了kerberos。)在客户端模式下我使用以下命令kinitspark-submit--masteryarn-client--proxy-userclouderaexamples/src/main/python/pi.py这很好用。在集群模式下,我使用以下命令(没有完成kinit并且缓存中没有TGT)spark-submit--principal--keytab--masteryarn-clusterexamples/src/main/python/pi.py也很好用。但是当我在集群模式下使用以下命令时(没有完成kinit并且缓

eclipse - 使用 scala 将 spark 作业从 eclipse 提交到 yarn-client

我是spark和scala的新手,我很难以YARN客户端的身份提交Spark作业。通过sparkshell(sparksubmit)执行此操作没有问题,同样适用于:首先在eclipse中创建一个spark作业,然后将其编译成jar并通过内核shell使用sparksubmit,例如:spark-submit--classebicus.WordCount/u01/stage/mvn_test-0.0.1.jar但是用Eclipse直接编译提交给YARN好像比较难。我的项目设置如下:我的集群正在运行CDHcloudera5.6。我有一个Maven项目,使用Scala,Myclasspath

java - 在 flink YARN 集群作业中使用 JNI

我有一个应用程序通过RemoteExecutionEnvironmentscalaAPI将ApacheFlink作业分派(dispatch)到AWSElasticMapReduceYARN集群。这些作业使用JNI通过C库运行部分计算。在开发过程中,我只是在RichCrossFunction的open()方法中调用了一个System.loadLibrary()来加载这个JNI库。这在LocalExecutionEnvironment中运行良好。现在我要转到RemoteExecutionEnvironment这似乎不再有效。看起来Flink每次分派(dispatch)作业时都在使用新的Cl

hadoop - yarn : Automatic clearing of filecache & usercache

我们正在运行一个使用yarn作为资源管理器的sparkstreaming作业,注意到这两个目录在数据节点上被填满,当我们只运行几分钟时空间就用完了/tmp/hadoop/data/nm-local-dir/filecache/tmp/hadoop/data/nm-local-dir/filecache这些目录不会自动清除,根据我的研究发现需要设置此属性,yarn.nodemanager.localizer.cache.cleanup.interval-ms即使在设置之后..它也不会自动清除任何帮助将不胜感激~~~yarn.nodemanager.aux-services~mapredu

hadoop - 为什么我们在 YARN 中配置 mapred.job.tracker?

我所知道的是引入了YARN,它取代了JobTracker和TaskTracker。我看过一些Hadoop2.6.0/2.7.0安装教程,他们将mapreduce.framework.name配置为yarn和mapred.job.tracker属性作为本地或主机:端口。mapred.job.tracker属性的描述是"ThehostandportthattheMapReducejobtrackerrunsat.If"local",thenjobsarerunin-processasasinglemapandreducetask."我的疑问是如果我们使用YARN为什么要配置它,我的意思是J