草庐IT

yarn-daemon

全部标签

hadoop yarn : unknown user and group

我想弄清楚为什么我的MR作业失败了。我的疑问之一是yarnresourcemanager日志中的警告:2015-08-1412:00:45,610INFOSecurityLogger.org.apache.hadoop.ipc.Server:Authsuccessfulfortesting(auth:SIMPLE)2015-08-1412:00:45,624WARNorg.apache.hadoop.security.ShellBasedUnixGroupsMapping:gotexceptiontryingtogetgroupsforusertesting:id:testing:No

apache - 使用 Hadoop YARN 在本地模式下运行 Hive 查询

大多数示例使用以下命令以本地模式提及运行Hive。SETmapred.job.tracker=local但是对于YARN,当在YARN集群上运行时,我们如何在本地模式下执行Hive作业。 最佳答案 这应该适用于Yarn(我用beeline测试过):设置mapreduce.framework.name=local; 关于apache-使用HadoopYARN在本地模式下运行Hive查询,我们在StackOverflow上找到一个类似的问题: https://st

java - 在 mac os 上配置 hadoop namenode 时出现 yarn-site.xml 错误

我正在尝试将我的mac配置为hadoop名称节点。输入此命令后:bin/hdfsnamenode-format我收到这个错误:[FatalError]yarn-site.xml:3:4:Commentmuststartwith"但是yarn-site.xml文件有那个注释。这是该文件的内容:yarn.nodemanager.aux-servicesmapreduce_shuffle任何建议将不胜感激。 最佳答案 这里有个小错误:这应该是(注意第二个“-”。您需要将“—”替换为“-”):所以更正后的文档是(我使用XMLValidato

hadoop - oozie 作业的 yarn user on/user/yarn 的访问异常

我正在运行一个包含sqoop命令的oozie工作流。通过终端提交时,sqoop命令运行良好。但是oozie工作流给出了以下异常:Exceptioninthread"main"java.lang.RuntimeException:org.apache.hadoop.security.AccessControlException:Permissiondenied:user=yarn,access=WRITE,inode="/user/yarn":hdfs:hdfs:drwxr-xr-x请指出可能存在的问题。工作流中的Sqoop命令:import--connect"jdbc:sqlserve

hadoop - 对于 Cloudera 5.4 hadoop 集群,Spark 独立调度程序或 Yarn 调度程序更好吗?

关于能够使用Spark运行机器学习作业。Yarn调度器和SparkStandalone调度器哪个更好? 最佳答案 运行实际的spark作业时没有区别。如果您的集群中运行着不同的spark应用程序和/或其他组件(当然支持Yarn/Mesos),Yarn/Mesos可以帮助您安排资源。Spark独立集群无法管理资源。也就是说,如果您启动一个Spark应用程序并且它使用了所有资源,那么第二个应用程序将找不到任何剩余资源。这意味着您必须自己执行此操作(例如相应地调整Spark配置) 关于hado

java - 在测试中为 hdfs map reduce 可以设置多低的 Yarn 容器内存?

我正在设置一个hadoop单节点环境,用于在只有4GB物理内存的硬件上进行测试,并使用hadoop2.6.0。我只使用了针对此类环境建议的基本配置。但我现在担心我可能应该调整内存资源管理以便能够运行一些mapreduce示例。我知道有几个设置需要查看,包括Java堆以及映射和缩减任务的内存。对于像我这样的小规模测试环境,我应该/可以将最小、最大容器大小设置多低,以使适度的mapreduce任务正常运行?我特别指的是:yarn.scheduler.minimum-allocation-mbyarn.scheduler.maximum-allocation-mb启动-dfs和启动-yarn

hadoop - Oozie 作业被挂起并且未到达 YARN

我正在尝试通过cli启动OozieShell操作作业:ooziejob-configjobprops/jos.prioperties-runJob开始,它给了我一个唯一的Id,我可以在OozieUI中看到Job。但是,Yarn控制台显示没有提交的作业,并且在oozie中检查日志时我收到以下消息:Errorstartingaction[folder-structure].ErrorType[TRANSIENT],ErrorCode[JA009]Message[JA009:Permissiondenied:user=vikas.r,access=WRITE,inode="/":hdfs:h

hadoop - 在 Yarn 客户端上运行 Spark

我最近设置了一个多节点HadoopHA(Namenode和ResourceManager)集群(3节点),安装完成并且所有守护进程都按预期运行NN1中的守护进程:2945JournalNode3137DFSZKFailoverController6385Jps3338NodeManager22730QuorumPeerMain2747DataNode3228ResourceManager2636NameNodeNN2中的守护进程:19620Jps3894QuorumPeerMain16966ResourceManager16808NodeManager16475DataNode1657

scala - 如何配置 Spark Streaming Scala 应用程序以从 Hadoop + Yarn 上的 HBase 读取

Spark、Hadoop+Yarn上的Hbase,我想从使用SBT构建的Scala应用程序读取和写入HBase。我无法创建HBaseScala应用程序:/usr/local/sparkapps/HBaseWordCount/src/main/scala/com/mydomain/spark/hbasewordcount/HbaseWordCount.scalapackagecom.mydomain.spark.hbasewordcountimportorg.apache.spark._importorg.apache.spark.streaming._importorg.apache.

hadoop - Cloudera Manager Yarn 和 Spark UI 不工作

我已经安装了CDH5.5.2,它在ClouderaManager中看起来没问题,直到我单击SparkHistoryServerUI链接或YarnHistoryServerUI链接。那些不起作用。不工作,我的意思是他们根本无法从浏览器访问。我在文件spark-defaults.conf中添加了以下几行spark.eventLog.dir=hdfs://name-node-1:8020/user/spark/applicationHistoryspark.eventLog.enabled=truespark.yarn.historyServer.address=http://name-no