草庐IT

YARN_OPTS

全部标签

hadoop - yarn : Automatic clearing of filecache & usercache

我们正在运行一个使用yarn作为资源管理器的sparkstreaming作业,注意到这两个目录在数据节点上被填满,当我们只运行几分钟时空间就用完了/tmp/hadoop/data/nm-local-dir/filecache/tmp/hadoop/data/nm-local-dir/filecache这些目录不会自动清除,根据我的研究发现需要设置此属性,yarn.nodemanager.localizer.cache.cleanup.interval-ms即使在设置之后..它也不会自动清除任何帮助将不胜感激~~~yarn.nodemanager.aux-services~mapredu

hadoop - 为什么我们在 YARN 中配置 mapred.job.tracker?

我所知道的是引入了YARN,它取代了JobTracker和TaskTracker。我看过一些Hadoop2.6.0/2.7.0安装教程,他们将mapreduce.framework.name配置为yarn和mapred.job.tracker属性作为本地或主机:端口。mapred.job.tracker属性的描述是"ThehostandportthattheMapReducejobtrackerrunsat.If"local",thenjobsarerunin-processasasinglemapandreducetask."我的疑问是如果我们使用YARN为什么要配置它,我的意思是J

java - 如何使用 java 以编程方式检索 yarn 的日志

我实际上在linuxshell上检索我的spark应用程序的日志:yarnlogs-applicationIdapplicationid有没有办法使用java以编程方式检索它? 最佳答案 我想使用java以编程方式执行此操作,所以我终于看了一下命令背后的代码:yarnlogs-applicationIdapplicationid这是在:src/main/java/org/apache/hadoop/yarn/client/cli/LogsCLI.java我现在检索字符串(内容)中的日志。代码是:StringapplicationId

java - EMR - 在 Hadoop(和 YARN)中使用自定义日志记录附加程序

在我们的EMR集群中,我们使用自定义log4j-appenders和log4j.properties来允许我们将日志转发到Splunk并让我们做一些提供的库和配置不知道如何做的魔术。在EMR3.x中,我们使用引导操作来做到这一点:从s3下载我们的自定义log4jappenderjar,log4j.properties,我们自定义的container-log4j.properties。将我们自定义的log4jappenderjar放入yarnlib目录中/home/hadoop/share/hadoop/yarn/lib/.更新Hadoop类路径以使用我们的自定义log4j附加器将我们修

hadoop - 使用 Hadoop 2.7.4 资源问题配置 Yarn

我按照这个tutorial配置了hadoop2.7.4.DataNode、NameNode和SecondaryNameNode工作正常。但是当我运行yarn时,NodeManager关闭并显示以下消息org.apache.hadoop.yarn.exceptions.YarnRuntimeException:org.apache.hadoop.yarn.exceptions.YarnRuntimeException:RecievedSHUTDOWNsignalfromResourcemanager,RegistrationofNodeManagerfailed,MessagefromR

hadoop - YARN Timeline Service v2 无法启动

我在AWS上设置了一个测试HDP集群,用于评估一个项目。AmbariUI报告了一些错误,当我根据需要重新启动服务时,我遇到了YARN的问题。为YARN启动TimelineServiceReaderV2时,出现错误2018-08-1015:51:06,400INFO[main]client.RpcRetryingCallerImpl:Callexception,tries=15,retries=15,started=129034msago,cancelled=false,msg=CalltoHOSTNAME/IPADDRESS:17020failedonconnectionexcepti

hadoop - 为什么不能从 YARN 请求超过 32 个内核来运行作业?

设置:没有。节点数:3没有。内核数:每台机器32个内核RAM:每台机器410GBSpark版本:1.2.0Hadoop版本:2.4.0(Hortonworks)目标:我想运行超过32个执行器核心的Spark作业。问题:当我为Spark作业请求超过32个执行器内核时,出现以下错误:Uncaughtexception:Invalidresourcerequest,requestedvirtualcoresmaxconfigured,requestedVirtualCores=150,maxVirtualCores=32atorg.apache.hadoop.yarn.server.reso

hadoop - yarn : How to utilize full cluster resources?

所以我有一个带有7个工作节点的cloudera集群。30GB内存4个vCPU以下是我发现的一些配置(来自Google)对于调整我的集群性能很重要。我正在运行:yarn.nodemanager.resource.cpu-vcores=>4yarn.nodemanager.resource.memory-mb=>17GB(为操作系统和其他进程预留)mapreduce.map.memory.mb=>2GBmapreduce.reduce.memory.mb=>2GB运行nproc=>4(可用处理单元数)现在我担心的是,当我查看我的ResourceManager时,我看到可用内存为119GB,

hadoop - 来自客户端的 YARN ContainerID

是否可以在客户端提交appContext后从YARN客户端获取各种容器ID和主机名?我想这意味着在分配容器后可以将信息传回给客户端吗?如果这不可能,RMWeb界面是否提供此信息? 最佳答案 YARNCLI有一个选项可以从应用程序尝试ID中获取容器列表。您可以按照以下步骤获取容器列表。第1步:从应用程序ID获取应用程序尝试列表从YARN应用程序ID,您可以使用以下命令获取应用程序尝试列表:yarnapplicationattempt-list这个命令的描述是这样的:-listListapplicationattemptsforappl

hadoop - yarn - 为什么任务不会超出堆空间但容器会被杀死?

如果YARN容器超出其堆大小设置,map或reduce任务将失败,并出现类似于以下的错误:2015-02-0611:58:15,461WARNorg.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl:Container[pid=10305,containerID=container_1423215865404_0002_01_000007]isrunningbeyondphysicalmemorylimits.Currentusage:42.1GBof42GBphys