草庐IT

Application-Name

全部标签

linux - 安装和获取当前的 dfs.name.dir 和 dfs.data.dir 值

我没有在hdfs-site.xml文件中设置dfs.name.dir和dfs.data.dir值没有设置。他们会怎样?有趣的是,他们默认接受什么值?(如何接收他们的当前值?) 最佳答案 dfs.name.dir的默认值为${hadoop.tmp.dir}/dfs/data和dfs.data.dir是${hadoop.tmp.dir}/dfs/data。如果hadoop.tmp.dir的值未使用-D选项或配置文件设置,则默认值为/tmp/hadoop-${user.name}user.name是您用来登录系统的用户名。对于所有默认值,

java - 无法在 Oozie java 操作中设置 mapred.job.queue.name

我有一个运行紧迫作业的应用程序。我正在尝试将Oozie配置为使用Java操作运行此作业。我的操作如下,${jobTracker}${nameNode}mapred.job.queue.namelaunchercom.test.Main-Dmapred.output.compress=false-Dmapred.textoutputformat.separator=,-Dcrunch.disable.output.counters=trueActionfailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]但每次我运行Oozi

apache-spark - YARN 如何决定启动哪种类型的 Application master?

我提到了this链接并获得对YARN工作原理的公平理解。YARN能够运行Multi-Tenancy应用程序,例如MR、Spark等。关键点是特定于应用程序的ApplicationMaster(AM)。当客户端向ResourceManager提交Job时,ResourceManager如何知道它是哪种应用程序(MR、Spark)并因此启动适当的ApplicationMaster?谁能帮助RM如何知道提交给它的作业类型?编辑:这个问题是:RM怎么知道提交了什么样的Job,而不知道YARN和MR或者Spark之间有什么关系。RM收到一个Job,因此它必须启动第一个运行特定应用程序Applic

hadoop - 当 Name Node 在 YARN 中失败时,工作状态是什么?

当一个job在集群中运行时,如果NameNode突然挂了,那么这个job的状态是什么(failed或者killed)?如果失败意味着谁在更新作业状态?这在内部是如何工作的? 最佳答案 备用Namenode将通过故障转移过程变为事件Namenode。看看HowdoesHadoopNamenodefailoverprocessworks?YARN架构围绕着ResourceManager、NodeManager和ApplicationsMaster。作业将继续进行,而不会因名称节点故障而受到任何影响。如果以上三个进程中的任何一个失败,将根

java - 连接到 Kerberrized HDFS,java.lang.IllegalArgumentException : Failed to specify server's Kerberos principal name;

我正在尝试使用以下代码连接到Kerberizedhdfs集群,使用以下相同的代码我能够使用HBaseConfiguration访问hbaseofcourse,Configurationconfig=newConfiguration();config.set("hadoop.security.authentication","Kerberos");UserGroupInformation.setConfiguration(config);UserGroupInformationugi=null;ugi=UserGroupInformation.loginUserFromKeytabAnd

java - HADOOP HTTPFS : giving error "User: ubuntu is not allowed to impersonate ubuntu" while accessing the application through Http

我在我的集​​群上安装了hadoop1.0.4,有1个主机和3个从机,现在我正在安装HTTPFS(hadoop-hdfs-httpfs-0.20.2-cdh3u5-SNAPSHOT)以使用http协议(protocol)访问HDFS内容,我可以通过它访问正常的页面curl-i"http://myhost:14000"它工作正常:)但是如果我尝试访问HDFS然后它给我错误(ubantu是我的用户):(curl-i"http://myhost:14000/webhdfs/v1?user.name=ubantu&op=OPEN"错误:{"RemoteException":{"message"

idea启动项目,出现报错:Application Server was not connected before run configuration stop

文章目录前言一、开发环境二、分析问题1.检查日志信息2.解决方案修改端口Tomcat参数配置总结前言最近公司的一个传统项目,通过idea启动后,控制台立马就打印了启动完成的日志信息,但是通过前端页面又无法正常访问,随即展开了一番调查。一、开发环境IntelliJIDEA2023.1.2apache-tomcat-8.5.56jdk1.8.0_131SSH(spring2.5.6+Struts22.5.22+Hibernate3.3.2.GA)二、分析问题1.检查日志信息通过对idea控制台信息检查,发现并没有加载项目信息,启动的日志均是tomcat的信息,如下:随后停止了应用,发现右下角有一个

hadoop - mapred-site.xml 中 mapreduce.framework.name 的经典、本地有什么区别?

官方对该参数的描述如下:TheruntimeframeworkforexecutingMapReducejobs.Canbeoneoflocal,classicoryarn.我知道值“yarn”用于MRv2,它会将mapreduce作业提交给resourcemanager。但是本地和经典之间有什么区别?哪个对应MRv1?非常感谢! 最佳答案 你是对的,“yarn”代表MRv2。“经典”用于MRv1,“本地”用于MR作业的本地运行。但是为什么需要MRv1?Yarn现在已经结束测试,它比旧的MRv1框架更稳定,而您的MapReduce作

hadoop - hadoop job -kill job_id 和 yarn application -kill application_id 有什么区别

hadoopjob-killjob_id和yarnapplication-killapplication_id有什么区别?job_id和application_id是否代表/指代同一个任务? 最佳答案 hadoopjob-killjob_id和yarnapplication-killapplication_id这两个命令都用于终止在Hadoop上运行的作业。如果您正在使用MapReduceVersion1(MRV1)并且您想要终止在Hadoop上运行的作业,那么您可以使用hadoopjob-killjob_id杀死一个工作,它会杀死

hadoop - 安全模式异常 : Name node is in safe mode

我尝试将文件从我的本地磁盘复制到hdfs。起初它给出了SafeModeException。在寻找解决方案时,我读到如果再次执行相同的命令,问题就不会出现。所以我再次尝试,它没有给出异常。hduser@saket:/usr/local/hadoop$bin/hadoopdfs-copyFromLocal/tmp/gutenberg//user/hduser/gutenbergcopyFromLocal:org.apache.hadoop.hdfs.server.namenode.SafeModeException:Cannotcreatedirectory/user/hduser/gut