草庐IT

HADOOP_NAMENODE_OPTS

全部标签

hadoop - 在 HDP Hue Pig UI 中运行任何 Pig 作业时出错。错误 : "Please initialize HIVE_HOME"

当我尝试从HuePigUI启动PigScriptJob时,进程会启动一个作业,然后进度条在那里停留1-3分钟并最终变成红色,唯一的输出是:“PleaseinitializeHIVE_HOME”我尝试运行的Pig脚本来自PigvalidationintheHDPinstallationmanual.pig脚本:A=使用PigStorage(':')加载'passwd';B=foreachA生成\$0作为id;将B存入'/tmp/id.out';我正在尝试让Hortonworks数据平台的Hue版本(v2.3,根据他们的website)运行PigScriptUI。我正在手动执行此操作,使用

java - 带有cygwin noclassdefinition的Windows中的hadoop发现错误

我正在尝试在我的Windows7环境中安装hadoop并使用cygwin运行它。我已经下载并安装了cygwin并配置了ssh我已经在cygwin.bashrc中设置了java类路径并设置了所有hadoop配置文件我的.bashrc文件已列出exportJAVA_HOME="C:\\ProgramFiles\\Java\\jdk1.6.0_24"exportHADOOP_HOME=/home/user/hadoopexportHADOOP_MAPRED_HOME=/home/user/hadoopexportHADOOP_COMMON_HOME=/home/user/hadoopexpo

hadoop - MapR - 如何在客户端/边缘节点上安装 Sqoop?

我熟悉Cloudera架构,但不熟悉MapR。我有一个RHEL虚拟机,之前使用这个documentation安装了MapR客户端软件.我能够按预期提交mapreduce作业并查询HDFS。我关注了这个documentation(在我安装了MapRyumrepo之后)并像这样安装了sqoop:yuminstallmapr-sqoop如果我尝试在某些数据中进行sqoop,或者甚至只是发出命令sqoop,我会收到以下错误:/opt/mapr/sqoop/sqoop-1.4.4/bin/configure-sqoop:line47:/opt/mapr/bin/versions.sh:Nosuc

hadoop - 我们能否从 Hue 获得与 "hadoop fsck"相同的指标?

有没有办法从Hue获取给定文件的以下详细信息?我主要需要给定文件的总block数和复制因子Totalblocks(validated):183(avg.blocksize133655481B)Minimallyreplicatedblocks:183(100.0%)Over-replicatedblocks:0(0.0%)Under-replicatedblocks:0(0.0%)Mis-replicatedblocks:0(0.0%)Defaultreplicationfactor:3Averageblockreplication:3.0Corruptblocks:0Missingr

hadoop - 单节点hadoop有没有并行性?

我是hadoop的新手。我可以在单节点hadoop中运行mahout示例。单节点hadoop有没有并行性?(例如在作业、block、)(在我的工作负载中,hadoop比WEKA运行得更快) 最佳答案 您所指的模式与伪分布式模式相同。这是一个单节点集群。在这里,您有一个名称节点、一个作业跟踪器以及一个正在运行的数据节点和任务跟踪器。您可以使用“jps”命令进行验证。默认情况下,tasktracker最多可以并行运行两个map和reduce任务(mapred.tasktracker.map.tasks.maximum和mapred.ta

java - Hadoop 2.2 - 合并 Reducer 输出

我的Map/Reduce作业输出表格的行Key15Key28Key34Key17Key33我想汇总这些结果以按键获得值的总和。所以像这样:Key112(5+7)Key28Key37(4+3)天真的方法是简单地将另一个Map/Reduce作业链接到第一个作业之后,但它效率低下,因为你的I/O比必要的多两倍,开销等。所以我想避免这种解决方案。最好的方法可能是map->reduce1->reduce2,其中reduce1的输出是reduce2的输入。不幸的是,这似乎是不可能的(例如参见ChainingMulti-ReducersinaHadoopMapReducejob)。我也看过Chain

mongodb - 我的 MongoDB 需要 Hadoop 吗?

我对MongoDB的使用非常简单。我只有一个副本集并在不使用MapReduce的情况下处理一些基本查询。我听说Hadoop是很棒的数据处理工具,一旦连接到MongoDB就可以提高性能。它可以很好地处理MapReduce,但它对我不包含任何MapReduce函数的情况有用吗?此外,如果我在MongoDB中使用MapReduce并连接到Hadoop,性能将如何提高? 最佳答案 Hadoop适用于批处理和海量数据(GB到TB)。因此,如果您不期望您的案例中有那么大的数据量并且您需要即时输出查询,那么您最好单独使用mongo来完成。Hado

hadoop - 在配置单元中加载数据时出现 nameservice1 错误

我试图在配置单元的表中加载一个平面文件并出现以下错误。失败:IllegalArgumentExceptionjava.net.UnknownHostException:nameservice1不确定这里需要做什么。表创建为CREATETABLEIFNOTEXISTSpoc_yi2(IndexValid_fgSTRING)ROWFORMAT分隔字段以','结尾,存储为文本文件数据文件包含一行是是的,加载数据的命令是:加载数据本地inpath'/home/user1/testx/1'覆盖到表poc_yi2;这是配置参数吗?我对Hive比较陌生。有人可以帮忙吗 最

java - "Pivot"使用 Hadoop 的表

(免责声明:我是Hadoop和Java的新手)作为输入,有一个具有简单键值结构的表:key1value1key2value2key3value3key2value4key1value5key1value6作为输出,我想为每个键收集属于特定键的所有值,所以像这样:key1,value1value5value6key2,value2value4key3,value3这是我的映射器:publicclassWordMapperextendsMapper{@Overridepublicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOExcep

java - 创建 Hadoop java 示例

我知道以前有人问过这个问题,但我似乎无法弄明白。我有一个使用hadoop的单节点集群设置,它运行正常。我正在尝试编译WordCount.java示例:importjava.io.IOException;importjava.util.*;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.conf.*;importorg.apache.hadoop.io.*;importorg.apache.hadoop.mapred.*;importorg.apache.hadoop.util.*;publicclassWordCount{