草庐IT

YARN_OPTS

全部标签

hadoop - 无法初始化 Cluster Hadoop-2.7.1 和 YARN

对于示例中的简单程序字数统计,即使所有作业都在运行,提交作业也会失败。hadoopjarhadoop-mapreduce-examples-2.7.1.jarwordcounthdfs://localhost:9000/inputhdfs://localhost:9000/outputJPS31265SecondaryNameNode31064DataNode30929NameNode31478ResourceManager32354Jps错误java.io.IOException:CannotinitializeCluster.Pleasecheckyourconfiguration

python - 无法在 yarn-client 模式下运行 pyspark(pyspark standalone 正在运行)

我可以在输入以下命令时运行spark$pyspark和$pyspark--masterlocal[2]但当我运行这个时不是-$pyspark--masteryarn客户端它给了我一个巨大的堆栈跟踪,它在下面给出或更清楚地可用here$pyspark--masteryarn-clientPython2.7.6(default,Jun222015,17:58:13)[GCC4.8.2]onlinux2Type"help","copyright","credits"or"license"formoreinformation.Warning:Masteryarn-clientisdepreca

hadoop2 在没有 yarn 和 mapreduce 的情况下构建 hdfs

我想根据已发表的论文对hadoophdfs进行一些更改。之后我只需要构建HDFS并让它运行起来。我该怎么做? 最佳答案 引用以下Hadoop文档http://wiki.apache.org/hadoop/HowToContribute 关于hadoop2在没有yarn和mapreduce的情况下构建hdfs,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/23050595/

hadoop yarn 类未在同一个 jar 中找到,但在运行作业期间包不同

我以“Hadoop:权威指南2/e”一书为例。我遇到了一个问题..:-(。我用的是ubuntu12.04,hadoop2.2.0。我使用eclipse制作了job.jar。map_reduce.programming.v1.MaxTemperatureReducer类在jar中,但包不同。当我运行作业时,我遇到类未找到异常。下面是ma​​pred-site.xmlmapreduce.framework.nameyarn如果将值更改为local而不是yarn,它会起作用。但如果是yarn,则不起作用。HADOOP_CLASS_PATH包括包含job.jar的路径。根本原因是什么?pack

ubuntu - 如何调试 apache yarn 中的作业失败

我有hadoopapacheyarn(2.4.0)多节点集群,有2个数据节点和1个主节点。我的设置工作正常,但是当我运行包中的hadoop字数统计示例时。我的工作停止在14/08/2815:44:13INFOmapreduce.Job:Runningjob:job_1409220779657_0001Howtodebugdebugtheproblemaboutthis...这背后的错误是什么...注意:我使用下面的命令来运行字数统计示例bin/hadoopjarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.0.jarwordc

java - Yarn 容器上的 ExitCodeException

我在运行一个简单的YARN应用程序时遇到以下异常,我如何才能获得更多信息来调试该问题?Oct14,201412:29:19PMdz.lab.yarn.simple.handler.RMCallbackHandleronContainersCompletedINFO:container'container_1410790353365_0036_02_000002'statusisContainerStatus:[ContainerId:container_1410790353365_0036_02_000002,State:COMPLETE,Diagnostics:Exceptionfr

hadoop - YARN ResourceTrackerService 在 STARTED 状态下失败

我正在尝试在共享磁盘上具有HadoopDirectory的几台机器上设置hadoop集群。HDFS运行良好。但是当我尝试启动YARN时,ResourceTracker抛出BindException。ResourceTracker配置运行的节点(ahti.d.umn.edu-131.212.41.9)可以访问(我可以通过SSH连接到它)并且端口(28025)也已打开。org.apache.hadoop.yarn.server.resourcemanager.ResourceTrackerServicefailedinstateSTARTED;cause:org.apache.hadoop

java - 如何编写可以使用 "hadoop -jar"运行的独立 YARN 应用程序?

我必须在Hadoop集群中运行一些无法用Map/Reduce表达的东西。我想到了为它编写一个YARN应用程序。我发现了SpringYarn对于spring-boot并遵循入门指南(请参阅链接)。到目前为止,这是有效的,但存在一些缺陷:在教程中生成了三个JAR(一个用于客户端,一个用于appmaster,一个用于容器),在提交应用程序时它们必须位于特定的文件夹结构中我必须在application.yml中对HDFSURI和资源管理器主机/端口进行硬编码,或者将它们作为命令行参数提供由于它是基于SpringBoot,应用程序是用java-jar启动的,所以创建的JAR文件非常大,里面基本上

scala - SparkPi 程序在 Yarn/Spark/Google Compute Engine 下保持运行

在GoogleComputeEngine上部署了一个Hadoop(Yarn+Spark)集群,其中有一个主节点和两个从节点。当我运行以下shell脚本时:spark-submit--classorg.apache.spark.examples.SparkPi--masteryarn-cluster--num-executors1--driver-memory1g--executor-memory1g--executor-cores1/home/hadoop/spark-install/lib/spark-examples-1.1.0-hadoop2.4.0.jar10作业一直在运行,每

hadoop - Spark : yarn cluster mode can't read hdfs path (No such file or directory)

我在yarn模式下使用spark提交,但我收到了这个错误:显然我的输入路径hdfs://缺少一个'/'我正在通过hdfs://master:8020/usr/jimmy/Test/,但是日志输出是日志文件中的hdfs:/master:8020/usr/jimmy/Test/Personal1(Personal1在我的代码中指定)缺少的'/'显然是问题所在我能做什么?请帮帮我我的命令:./bin/spark-submit--masteryarn-cluster--classMovie.Movies/usr/jimmy/Move.jarhdfs://master:8020/usr/jimm