草庐IT

Application_ENV

全部标签

hadoop - 使用 sed 将 JAVA_HOME 环境变量添加到 hadoop-env,sh 文件

当我运行命令时:sed-i"\$aexportJAVA_HOME=c:\ProgramFiles(x86)\Java\jre1.8.0_151\bin"$HADOOP_HOME/etc/hadoop/hadoop-env.sh我得到错误:sed:can'tread/usr/share/hadoop/etc/hadoop/hadoop-env.shnosuchfileordirectory我验证了目录和文件存在。$HADOOP_HOME=/usr/share/hadoop你知道问题是什么吗?我已经搜索了StackOverflow和谷歌,但没有找到解决方案。 最

java - 如何在 application.properties 文件中的 Spring Boot 应用程序中配置 HikariCP?

我正在尝试在我的SpringBoot(1.2.0.M1)应用程序中设置HikariCP,以便我可以使用它来代替TomcatDBCP进行测试。我想在我的application.properties文件中配置连接池,就像我对Tomcat所做的那样,但我不知道我应该怎么做。我发现的所有示例都显示了JavaConfig样式或使用单独的HikariCP属性文件。有人可以帮我找出在application.properties中配置它的属性名称吗?我还想从使用driverClassName方法切换到DataSourceClassName方法,因为它看起来更干净并且被推荐。这在我的applicatio

java - 如何在 application.properties 文件中的 Spring Boot 应用程序中配置 HikariCP?

我正在尝试在我的SpringBoot(1.2.0.M1)应用程序中设置HikariCP,以便我可以使用它来代替TomcatDBCP进行测试。我想在我的application.properties文件中配置连接池,就像我对Tomcat所做的那样,但我不知道我应该怎么做。我发现的所有示例都显示了JavaConfig样式或使用单独的HikariCP属性文件。有人可以帮我找出在application.properties中配置它的属性名称吗?我还想从使用driverClassName方法切换到DataSourceClassName方法,因为它看起来更干净并且被推荐。这在我的applicatio

hadoop - yarn application id 是如何生成的

我启动了一个yarn应用程序,它给出的id为application_1560618551799_4465795但是,我惊讶地发现1560618551799表示SunJun1601:09:11CST2019,大约是3个月前。我一直以为id中的时间戳会落到今天,请问我能不能从id中算出应用程序什么时候开始?谢谢 最佳答案 遗憾的是,无法从应用程序ID本身推断出应用程序启动时间。SourcecodefortheApplicationId提供以下叙述:ApplicationIdrepresentsthegloballyuniqueident

hadoop - Spark over Yarn - 不正确的 Application Master 选择

我正在尝试使用以下命令在Yarn上使用Spark触发一些作业(这只是一个示例,实际上我使用的是不同数量的内存和内核):./bin/spark-submit--classorg.mypack.myapp\--masteryarn-cluster\--num-executors3\--driver-memory4g\--executor-memory2g\--executor-cores1\lib/myapp.jar\当我查看WebUI以查看幕后真正发生的事情时,我注意到YARN正在选择一个不是SparkMaster的节点作为ApplicationMaster。这是一个问题,因为真正的Sp

由 Ambari 覆盖的 Hadoop 自定义 - hadoop-env.sh

这似乎是一项简单的任务:更改/etc/hadoop/conf/hadoop-env.sh中的JAVA_HOME以使用不同版本的Java。但是,Ambari似乎会使用它的模板方案覆盖您在hadoop-env.sh中所做的任何更改。模板似乎包含以下行:exportJAVA_HOME={{java_home}}那么,现在如果这用于生成和替换每个节点上的环境,我该如何定义{{java_home}}? 最佳答案 从Ambari1.7.0开始,您可以从AmbariWebUI修改hadoop-env。您可以通过此页面上的链接了解Ambari1.7

apache-spark - 如何使用 APPLICATION ID 提交 YARN 作业

我想知道YARNCLI是否提供了使用上一次执行生成的APPLICATION_ID重新提交YARN应用程序的可能性。例子:/opt/mapr/spark/spark-2.1.0/bin/spark-submit--num-executors5--executor-memory2G--executor-cores2--masteryarn--deploy-modecluster--files/opt/mapr/hive/hive-2.1/conf/hive-site.xml--classcom.cisco.sdp.cdx.processing.DenormSchedulerJSONDeno

hadoop - 在 YARN 集群的特定节点上运行我自己的 application master

首先,我使用的是Hadoop-2.6.0。我想在YARN集群中的特定节点上启动我自己的appmaster,以便在预定的IP地址和端口上打开服务器。为此,我编写了一个驱动程序,在其中创建了一个ResourceRequest对象并调用了setResourceName方法来设置主机名,并将其附加到ApplicationSubmissionContext对象通过调用setAMContainerResourceRequest方法。我尝试了几次,但无法在特定节点上启动AppMaster。搜索代码后,我发现RMAppAttemptImpl使我在ResourceRequest中设置的内容无效,如下所示

hadoop - 运行 YARN 应用程序时获取 "User [dr.who] is not authorized to view the logs for application <AppID>"

我在HDP2.5集群中使用ApacheTwill运行自定义Yarn应用程序,但是当我转到我的容器网页时,我无法看到我自己的容器日志(syslog、stderr和stdout):当我导航到此页面时,登录名也从我的kerberos更改为“dr.who”。但是我可以看到map-reduce作业的日志。Hadoop版本为2.7.3,集群启用了yarnacl。 最佳答案 我在使用hadoopui时遇到了这个问题。我在this中找到doc,hadoop.http.staticuser.user默认设置为dr.who,您需要将其包含在相关设置文件

hadoop - yarn 中的 "Application priority"

我正在使用Hadoop2.9.0。是否可以在YARN中提交具有不同优先级的作业?根据一些JIRA票据,应用程序优先级似乎已经实现。我尝试使用YarnClient,并在提交作业之前为ApplicationSubmissionContext设置优先级。我还尝试使用CLI和updateApplicationPriority。但是,应用程序优先级似乎没有任何变化,它始终保持为0。我是否误解了YARN的ApplicationPriority概念?我看到了一些关于设置队列优先级的文档,但对于我的用例,我需要一个队列中的所有作业。将不胜感激任何对我的理解的澄清,或对我可能做错了什么的建议。谢谢。