草庐IT

Application_ENV

全部标签

hadoop - 在分布式 Hadoop 集群中使用 ENV 变量

我的目标是在我们的Hadoop集群上运行应用程序,而无需将显式配置放入每个应用程序。因此,我试图将集群的配置放入ENV变量中,并将它们传播到集群中的每个节点。例如我定义:exportHIVE2_JDBC_URL=jdbc:hive2://localhost:10000以后像这样使用它:beeline-u$HIVE2_JDBC_URL/-e"SELECT*FROM;"虽然这适用于这个特定的用例(在cli中),但它有两个很大的缺点:我必须根据更改手动更新每个节点上的ENV变量Oozie工作流无法读取ENV变量有没有一种方法可以使用Ambari检索此设置,我可以定义我自己的自定义设置,然后在

hadoop - Amazon EMR Application Master Web UI?

我已经开始使用HadoopYARN(AMI3.3.1)在AmazonEMR上运行PIG作业,但是由于Yarn中不再有作业跟踪器,我似乎无法找到WebUI以便我可以跟踪MapReduce作业的Mappers和Reducers的数量,当我尝试访问资源管理器UI页面中提供的ApplicationMaster链接时,我被告知该页面不存在(下面提供的图片)。有谁知道我如何通过我的网络浏览器访问一个UI,它会根据映射器、reducer的数量和每个完成的百分比等向我显示当前的工作状态?谢谢 最佳答案 从ResourceManager网页单击App

hadoop - 'yarn application -list' 没有显示任何结果

我在YARN集群上运行了一些Spark应用程序。该应用程序显示在YARNUI的“所有应用程序”页面中http://host:8088/cluster但是yarnapplication-list命令没有给出任何结果。这可能是什么原因造成的? 最佳答案 当您使用不带“-appTypes”或“-appStates”选项的“-list”选项时,它会对“应用程序类型”和“状态”应用默认过滤(请查看下面突出显示的部分)。如果您的所有应用程序都不符合默认过滤条件,那么您将得不到任何结果。申请总数(申请类型:[]和状态:[SUBMITTED、ACC

hadoop - 带有 Yarn 的 Spark Shell - 错误 : Yarn application has already ended! 它可能已被杀死或无法启动应用程序主机

作为this的后续行动问题,当我尝试在我的单节点机器上使用Spark2.1.1overYarn(Hadoop2.8.0)时出现新错误。如果我使用启动SparkShellspark-shell它开始没有问题。在使用通常的start-dfs.sh和start-yarn.sh启动Hadoop之后,如果我使用spark-shell--masteryarn我收到以下错误:17/06/1012:00:07WARNNativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhe

api - 纱 API : Getting Yarn Aggregated Logs for application by API

我使用YARNjavaAPI而不是在终端中提交Hadoop应用程序。我正在寻找一种在应用程序完成后通过YarnAPI获取yarn聚合日志的方法。当然,这可以通过简单的命令来完成:“yarnlogs-applicationId{my_application_ID}”,但我想通过API来完成。有人知道如何使用API而不是命令行来获取这些日志吗?谢谢。 最佳答案 正如您在代码源上所做的那样https://github.com/apache/hadoop/blob/trunk/hadoop-yarn-project/hadoop-yarn/

java - 如何在 hadoop-env.sh 中为 hadoop 守护进程单独定义内存

据我所知,hadoop-env.sh是hadoop守护进程设置环境的配置文件。在这个文件中,我如何定义HADOOP_HEAPSIZE是为守护进程定义堆大小的属性。这是否意味着它适用于所有守护进程,如名称节点、数据节点、任务跟踪器、作业跟踪器和辅助名称节点,每台机器都将占用1000MB内存。如果是,那么我怎样才能让每一个都不同。我在hadoop-env.sh中观察了以下几个条目exportHADOOP_NAMENODE_OPTS="-Dcom.sun.management.jmxremote$HADOOP_NAMENODE_OPTS"exportHADOOP_SECONDARYNAMEN

hadoop yarn : show the pending resoure request of an application

如何获取应用程序发送给资源管理器的待处理请求数?据我所知,资源管理器可能不会立即分配请求的资源,因此请求将被挂起,对吧? 最佳答案 我正在使用Hadoop2.7.1。从资源管理器UI中,您可以看到“未完成的资源请求”。在RM用户界面中:点击正在运行的应用程序(例如application_1447644421851_0004)在申请页面中,点击尝试ID(例如appattempt_1447644421851_0004_000001)在“应用程序尝试ID”页面中,您将看到“TotalAllocatedContainers”和“TotalO

hadoop - YARN Application Master 无法连接到 Resource Manager

我有一个4节点集群(1个名称节点/资源管理器3个数据节点/节点管理器)我正在尝试运行一个简单的tez示例orderedWordCounthadoopjarC:\HDP\tez-0.4.0.2.1.1.0-1621\tez-mapreduce-examples-0.4.0.2.1.1.0-1621.jarorderedwordcountsample/test.txt/sample/out作业被接受,Applicationmaster和容器被设置但是在节点管理器上我看到了这些日志2014-09-1017:53:31,982INFO[ServiceThread:org.apache.tez.

hadoop - YARN : Application failed 2 times due to AM Container 上的 Spark 1.3.0

当使用以下脚本在YARN(Hadoop2.6.0.2.2.0.0-2041)上运行Spark1.3.0Pi示例时:#RunonaYARNclusterexportHADOOP_CONF_DIR=/etc/hadoop/conf/var/home2/test/spark/bin/spark-submit\--classorg.apache.spark.examples.SparkPi\--masteryarn-cluster\--executor-memory3G\--num-executors50\/var/home2/test/spark/lib/spark-examples-1.3

apache-spark - Spark Driver 内存和 Application Master 内存

我是否正确理解了客户端模式的文档?客户端模式与驱动程序在应用程序主机中运行的集群模式相反?在客户端模式下,driver和applicationmaster是独立的进程,因此spark.driver.memory+spark.yarn.am.memory必须小于机器的内存?在客户端模式下,驱动程序内存是否未包含在应用程序主内存设置中? 最佳答案 clientmodeisopposedtoclustermodewherethedriverrunswithintheapplicationmaster?是,当Spark应用程序部署在YARN