草庐IT

ruby-on-rails - PIG_HOME 路径 ubuntu 的问题

我有RoR项目,在构建并运行他之后,我发现了下一个问题:PIG_HOMEnotset:requiresPig>=0.7.02016-01-2214:31:56+0200Failtorunpig.exit之后我下载并在~/.bashrc文件中设置PIG_HOME路径和JAVA_HOME:exportPIG_HOME=/usr/lib/pig/pig-0.15.0exportPATH=$PATH:$PIG_HOME/binexportJAVA_HOME=/usr/lib/jvm/jdk1.8.0_71exportPATH=$PATH:$JAVA_HOME/bin然后重新启动PC并再次尝试构

windows - 在 Windows 中设置 HADOOP_HOME 变量

我正在尝试在我的Windows8中将Spark与Hadoop一起使用。但是无论我的代码是什么,我都会收到此错误:15/08/2519:29:58ERRORShell:Failedtolocatethewinutilsbinaryinthehadoopbinarypathjava.io.IOException:Couldnotlocateexecutablenull\bin\winutils.exeintheHadoopbinaries.atorg.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:355)atorg.apac

java - 无法构建 piggybank ->/home/build/ivy/lib 不存在

嘿,我按照这里的步骤操作:http://wiki.apache.org/pig/PiggyBank构建存钱jar,但我不断得到下面的输出。我还从源代码构建了pig项目,并在我的.bash_profile中引用了它:cloudera@cloudera-demo:~/piggybank/java$./makepiggy.shBuildfile:/home/cloudera/piggybank/java/build.xmldownload-hive-deps:init:compile:[echo]***CompilingPigUDFs***[javac]/home/cloudera/pigg

java - 基于HADOOP_HOME自动加载HDFS Configuration?

我正在开发一个Java程序来与已经运行的hadoop集群交互。该程序已将HADOOP_HOME作为环境变量传递给它。基于这个值,我需要在开始与HDFS/MapReduce交互之前加载所有必要的配置资源。我认为我需要的文件基于apachedocumentation.我当前的解决方案如下所示:finalStringHADOOP_HOME=System.getEnv("HADOOP_HOME");Configurationconf=newConfiguration();conf.addResource(newPath(HADOOP_HOME,"src/core/core-default.xm

hadoop - 找不到 hadoop 安装 : $HADOOP_HOME must be set or hadoop must be in the path

所以有点背景。我一直在尝试在CentOS6机器上设置Hive。我按照这个Youtube视频的说明操作:http://www.youtube.com/watch?v=L2lSrHsRpOI就我而言,我使用的是Hadoop-1.1.2和Hive0.9.0,本视频中所有标有“mnt”的目录我都将其替换为“opt”,因为这是我所有的hadoop和hive包的位置被打开了。当我到达视频中实际上应该通过“./hive”运行Hive的部分时弹出此错误:"Cannotfindhadoopinstallation:$HADOOP_HOMEmustbesetorhadoopmustbeinthepath"

java - APACHE HADOOP 版本 2.8.0 的 HADOOP_HOME 和 PIG_CLASSPATH 的正确值是多少?

我在从PIG命令行执行Hadoop命令时遇到问题。命令和错误堆栈在下面我的导师怀疑这是因为HADDOP_HOME和PIG_CLASSPATH不正确。我使用的是HADOOP2.8.0版。所以,最初我有HADOOP_HOME作为HADOOP_HOME=/hadoop/2.8.0/然后我切换了以下设置:HADOOP_HOME=/hadoop/2.8.0/libexec/etc/hadoopPIG_CLASSPATH定义为$HADOOP_HOME我在pig中使用的命令:A=LOAD'/Users/anarinsky/Downloads/loaddata1.txt';B=MAPREDUCE'/U

Hadoop 将 HADOOP_HOME 正确设置为 bin/hadoop 它会给出未找到的命令

安装hadoop并将HADOOP_HOME设置为/usr/local/hadoop/bin/hadoop后,当通过在终端中键入hadoop运行hadoop时,它说我没有权限。然后我尝试用sudo运行它然后它说,sudo:commandnotfound 最佳答案 HADOOP_HOME应该指向/usr/local/hadoop。如果您只想在终端中输入hadoop,您必须将它添加到全局路径变量中。为此,在/home/hadoopuser/.bashrc中添加以下行:exportHADOOP_HOME=/usr/local/hadoope

hadoop - 无法创建目录/home/hadoop/hadoopinfra/hdfs/namenode/current

我得到了错误Cannotcreatedirectory/home/hadoop/hadoopinfra/hdfs/namenode/current尝试在本地Mac上安装hadoop时。这可能是什么原因?仅供引用,我将我的xml文件放在下面:mapred-site.xml:mapreduce.framework.nameyarnhdfs-site.xml:dfs.replication1dfs.name.dirfile:///home/hadoop/hadoopinfra/hdfs/namenodedfs.data.dirfile:///home/hadoop/hadoopinfra/h

hadoop - $HIVE_HOME/bin/hive --service hiveserver

我是Hadoop/hive的新手。我已经安装了hadoop和hive。当我使用hive作为命令提示符时它工作正常但是我要实现hive的JDBC然后键入以下命令hive>$HIVE_HOME/bin/hive--servicehiveserver然后出现以下错误,所以请帮助我如何实现配置单元的jdbc请任何人帮助我...hduser@ubuntu:~$$HIVE_HOME/bin/hive--servicehiveserverStartingHiveThriftServerWARNING:org.apache.hadoop.metrics.jvm.EventCounterisdeprec

java - $HADOOP_HOME 已弃用,Hadoop

我尝试在单节点集群上安装Hadoop(我自己的labtop-ubuntu12.04)。我按照本教程逐行检查了两次。http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/一切似乎都是正确的。我设置了所有的core-site.xml,mapred-site.xml,hdfs-site.xml。当我在hdusersu中运行以下命令时:hduser@maziyar-Lenovo-IdeaPad-U300s:~$/usr/local/hadoop/usr/sbin/star