草庐IT

yarn-site

全部标签

hadoop - YARN MapReduce 内存不足

我正在尝试在YarnMapReduce中启动我的应用程序。我在4个主机(1个资源管理器和4个节点管理器)中设置了MapReduce。每个主机有2个内核和4GBRAM。当我运行我的应用程序时,它由于缺少RAM[1]而中止。我应该如何设置YarnMapReduce以使作业不会耗尽RAM?[1]我遇到的错误。2016-02-0916:01:41,607INFOorg.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl:MemoryusageofProcessTree1639f

java - Spark 作业失败,因为它找不到 hadoop core-site.xml

我正在尝试运行spark作业,但在尝试启动驱动程序时出现此错误:16/05/1714:21:42ERRORSparkContext:ErrorinitializingSparkContext.java.io.FileNotFoundException:Addedfilefile:/var/lib/mesos/slave/slaves/0c080f97-9ef5-48a6-9e11-cf556dfab9e3-S1/frameworks/5c37bb33-20a8-4c64-8371-416312d810da-0002/executors/driver-20160517142123-018

apache-spark - 如何将作业提交到其他集群上的 yarn ?

我有一个安装了spark的docker容器,我正在尝试使用marathon将作业提交到其他集群上的yarn。docker容器具有yarn和hadoopconf目录的导出值,yarn文件还包含emrmasterip的正确地址,但我不确定它从哪里作为本地主机?ENVYARN_CONF_DIR="/opt/yarn-site.xml"ENVHADOOP_CONF_DIR="/opt/spark-2.2.0-bin-hadoop2.6"yarn.xmlyarn.resourcemanager.hostnamexx.xxx.x.xx命令:"cmd":"/opt/spark-2.2.0-bin-h

hadoop - 在没有 mapred-site.xml 的情况下设置 hadoop mapreduce 大小

我在服务器上运行mapreduce作业,但不断收到此错误:Containerkilledonrequest.Exitcodeis143Containerexitedwithanon-zeroexitcode143Containerisrunningbeyondphysicalmemorylimits.Currentusage:1.0GBof1GBphysicalmemoryused;2.7GBof2.1GBvirtualmemoryused.Killingcontainer.当然我已经阅读了所有可能的资源并且我知道我需要在这些文件中设置配置:ma​​pred-site.xml\\yar

hadoop - Hive 没有完全遵守 core-site.xml 中的 fs.default.name/fs.defaultFS 值

我在一台名为hadoop的机器上安装了NameNode服务。core-site.xml文件的fs.defaultFS(等同于fs.default.name)设置如下:fs.defaultFShdfs://hadoop:8020我有一个名为test_table的非常简单的表,它当前存在于HDFS上的Hive服务器中。即存放在/user/hive/warehouse/test_table下。它是在Hive中使用一个非常简单的命令创建的:CREATETABLEnew_table(record_idINT);如果我尝试将数据加载到本地表中(即使用LOADDATALOCAL),一切都会按预期进行

java - yarn 容器内存不足

我的yarn容器内存不足:这个特定的容器运行一个Apache-Spark驱动程序节点。我不明白的部分:我将驱动程序的堆大小限制为512MB(您可以在下面的错误消息中看到这一点)。但是yarn容器提示内存>1GB(另见下面的消息)。您可以验证yarn正在启动java是否使用Xmx512m运行。我的容器设置为1GB内存,增量为0.5GB。此外,我托管yarn容器的物理机器每个都有32GB。我通过SSH连接到其中一台物理机器,看到它有很多可用内存...另一个奇怪的事情是,java没有抛出OutOfMemory异常。当我查看驱动程序日志时,我发现它最终从yarn获取了一个SIGTERM,并正常

hadoop - 如何删除 yarn 日志

我是YARN的新手。我运行了创建日志的oozie作业。我可以看到yarn日志yarnlogs-applicationIdapplication_123456789_12345678我想知道如何删除这些日志?我可以只删除文件以删除日志吗? 最佳答案 作业完成后,NodeManager将为每个容器保留${yarn.nodemanager.log.retain-seconds}的日志。默认情况下为10800秒(3小时),并在它们过期后将其删除。但是如果${yarn.log-aggregation-enable}启用后,NodeManage

hadoop - Apache Yarn 公平调度程序一次只允许一个应用程序

我们有一个hadoop集群,配置了ClouderaCDH5.4.2发行版和Yarn公平调度程序,用于调度和管理资源。我们有18个工作节点,总计963GB主内存和288个vcores。现在的问题是我一次只能运行一个应用程序,无论该应用程序的资源需求有多小。例如这里是动态资源池状态:状态YARN使用288个vcores和942GiB内存。资源池使用此表和右侧的图表仅包含来自YARN的指标。资源池名称已分配内存已分配VCores已分配容器待处理容器根0B000用户10B001默认0B000用户222GiB11111对于用户2,即使在288个vcores和942GiB内存中只分配了22GB和1

hadoop - Spark 在 yarn-cluster 上提交 - Hive 错误

我正在使用使用spark1.6的HDP2.4发行版,我正在尝试在yarn-cluster上提交spark作业。当我在yarn-client和本地提交作业时,它正在运行。但是当使用yarn-cluster提交作业时会出现以下错误。java.lang.RuntimeException:Unabletoinstantiateorg.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientCausedby:java.lang.NoClassDefFoundError:Couldnotinitializeclassorg.apache.d

hadoop - NodeManager 未在 Hadoop Yarn 中启动

我现在已经在独立模式下设置了hadoop和yarn。我正在尝试用yarn开始所有过程。除节点管理器外,所有进程都已启动。每次都抛出jvm错误。[root@ip-10-100-223-16hadoop-0.23.7]#sbin/yarn-daemon.shstartnodemanagerstartingnodemanager,loggingto/root/hadoop-0.23.7/logs/yarn-root-nodemanager-ip-10-100-223-16.outUnrecognizedoption:-jvmError:CouldnotcreatetheJavaVirtual