草庐IT

Application_Home

全部标签

ubuntu - 在 Ubuntu : $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the 上安装 Hive 的问题

我已经在我的UbuntuEC2实例上安装了Hadoop,并按照本教程完成了安装hive的所有步骤:http://www.tutorialspoint.com/hive/hive_installation.htm但是,当我启动配置单元时,我收到以下错误消息:“找不到hadoop安装:必须设置$HADOOP_HOME或$HADOOP_PREFIX或者hadoop必须在路径中”我的bashrc文件是这样写的:exportJAVA_HOME=/usrexportPATH=$PATH:$JAVA_HOME/binexportHADOOP_HOME=/usr/local/hadoop-2.7.1e

hadoop - 如何在cloudera quickstartVM -5.7.0中获取默认的HIVE_HOME?

如何在cloudera-quickstartVM-5.7中获取环境变量$HIVE_HOME的值?试图通过printenv查看存在的环境变量,它不存在。 最佳答案 HIVE_HOME在调用hiveshell时设置。以下是找到HIVE_HOME的三种方法从hive命令行:[cloudera@quickstart~]$hive-e'!env'|grepHIVE_HOMEHIVE_HOME=/usr/lib/hive来自hiveshell-这将打印与上面相同的变量但是你不能在这里使用grep,所以你必须从所有变量的列表中找到HIVE_HOM

java - hadoop、 Jersey 和 JBoss : application won't start

首先,我对JBoss几乎一无所知。昨天之前从来没有接触过它,仍然不太了解它。但是,我公司的一位客户正在使用它来部署我们的应用程序,而我们的最新更新破坏了他们的配置,所以我正在努力解决它。无论如何,这是版本信息:Hadoop:2.7.2Jersey:2.3JBoss:6.1操作系统:Windows(我怀疑这是特定于操作系统的,那只是我正在处理的环境)我们最近向我们的应用程序添加了一个Hadoop连接器模块,这似乎是导致失败的原因。我已经能够重现这个问题,这里是堆栈跟踪:13:32:39,857ERROR[org.jboss.msc.service.fail](MSCservicethre

ruby-on-rails - PIG_HOME 路径 ubuntu 的问题

我有RoR项目,在构建并运行他之后,我发现了下一个问题:PIG_HOMEnotset:requiresPig>=0.7.02016-01-2214:31:56+0200Failtorunpig.exit之后我下载并在~/.bashrc文件中设置PIG_HOME路径和JAVA_HOME:exportPIG_HOME=/usr/lib/pig/pig-0.15.0exportPATH=$PATH:$PIG_HOME/binexportJAVA_HOME=/usr/lib/jvm/jdk1.8.0_71exportPATH=$PATH:$JAVA_HOME/bin然后重新启动PC并再次尝试构

hadoop - 如何从 `yarn application -list` 访问 Tracking-URL?

我想查看我在yarn中看到的某个作业的yarnwebUI。当我做yarnapplication-list我可以看到跟踪URL.所以,我在chrome中导航到那个页面,它给了我这样的错误:The172.12.15.181pageisn'tworking.172.12.15.181didn'tsendanydata.我显然已经通过ssh进入了应该允许我看到它的机器。另外,这份工作肯定在status=RUNNING在yarn中。那么,是什么阻止我在这个url上看到yarnweb用户界面?我这样做正确吗?谢谢。 最佳答案 在yarnappl

windows - 在 Windows 中设置 HADOOP_HOME 变量

我正在尝试在我的Windows8中将Spark与Hadoop一起使用。但是无论我的代码是什么,我都会收到此错误:15/08/2519:29:58ERRORShell:Failedtolocatethewinutilsbinaryinthehadoopbinarypathjava.io.IOException:Couldnotlocateexecutablenull\bin\winutils.exeintheHadoopbinaries.atorg.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:355)atorg.apac

apache-spark - YARN 如何决定启动哪种类型的 Application master?

我提到了this链接并获得对YARN工作原理的公平理解。YARN能够运行Multi-Tenancy应用程序,例如MR、Spark等。关键点是特定于应用程序的ApplicationMaster(AM)。当客户端向ResourceManager提交Job时,ResourceManager如何知道它是哪种应用程序(MR、Spark)并因此启动适当的ApplicationMaster?谁能帮助RM如何知道提交给它的作业类型?编辑:这个问题是:RM怎么知道提交了什么样的Job,而不知道YARN和MR或者Spark之间有什么关系。RM收到一个Job,因此它必须启动第一个运行特定应用程序Applic

java - 无法构建 piggybank ->/home/build/ivy/lib 不存在

嘿,我按照这里的步骤操作:http://wiki.apache.org/pig/PiggyBank构建存钱jar,但我不断得到下面的输出。我还从源代码构建了pig项目,并在我的.bash_profile中引用了它:cloudera@cloudera-demo:~/piggybank/java$./makepiggy.shBuildfile:/home/cloudera/piggybank/java/build.xmldownload-hive-deps:init:compile:[echo]***CompilingPigUDFs***[javac]/home/cloudera/pigg

java - 基于HADOOP_HOME自动加载HDFS Configuration?

我正在开发一个Java程序来与已经运行的hadoop集群交互。该程序已将HADOOP_HOME作为环境变量传递给它。基于这个值,我需要在开始与HDFS/MapReduce交互之前加载所有必要的配置资源。我认为我需要的文件基于apachedocumentation.我当前的解决方案如下所示:finalStringHADOOP_HOME=System.getEnv("HADOOP_HOME");Configurationconf=newConfiguration();conf.addResource(newPath(HADOOP_HOME,"src/core/core-default.xm

hadoop - 找不到 hadoop 安装 : $HADOOP_HOME must be set or hadoop must be in the path

所以有点背景。我一直在尝试在CentOS6机器上设置Hive。我按照这个Youtube视频的说明操作:http://www.youtube.com/watch?v=L2lSrHsRpOI就我而言,我使用的是Hadoop-1.1.2和Hive0.9.0,本视频中所有标有“mnt”的目录我都将其替换为“opt”,因为这是我所有的hadoop和hive包的位置被打开了。当我到达视频中实际上应该通过“./hive”运行Hive的部分时弹出此错误:"Cannotfindhadoopinstallation:$HADOOP_HOMEmustbesetorhadoopmustbeinthepath"