草庐IT

Single-line

全部标签

hadoop - bin/hadoop : line 133: C:Java/jdk1. 7.0_45/bin/java: 没有那个文件或目录

有人可以帮忙吗?我正在尝试获取hadoop2.2.0版本并收到错误消息$bin/hadoop版本bin/hadoop:第133行:C:Java/jdk1.7.0_45/bin/java:没有那个文件或目录bin/hadoop:line133:exec:C:Java/jdk1.7.0_45/bin/java:cannotexecute:Nosuchfileordirectory我正在尝试在Windows7/64上安装单实例hadoop。我确实在“c/+1/Hadoop/hadoop-2.2.0”上安装了Cygwin64和hadoopJAVA_HOME是$echo$JAVA_HOMEc:J

hadoop - 许多输入文件到 SINGLE 映射。哈多普。如何?

如何对多个输入文件只使用一张map?因为Hadoop为一个文件创建了一个映射器。对于所有文件,我只需要一个映射器。我尝试使用CombineFileInputFormat。它有一个映射器,但映射输入只包含一个文件。我需要该输入映射值来包含来自所有文件(文本格式)的数据,如下所示:输入map值:datafromfile1.txtdatafromfile2.txtdatafromfile3.txtpublicclassWholeFileInputFormatextendsCombineFileInputFormat{publicWholeFileInputFormat(){super();s

hadoop - 解释 "There can be many keys (and their associated values) in each partition, but the records for any given key are all in a single partition"

“每个分区中可以有许多键(及其相关值),但任何给定键的记录都在一个分区中。”这是一本著名的hadoop教科书的一行。我没有理解它的第二部分的全部含义,即“但是任何给定键的记录都在一个分区中。”这是否意味着单个键的所有记录都应该在单个分区或其他地方。 最佳答案 buttherecordsforanygivenkeyareallinasinglepartition如果您有一个键,则该键及其相关联的值必须位于单个分区上。有时该值可能相当大。但这是对值大小的限制。它必须足够小以适合单个分区。请注意,键和值上可能还有其他常量,具体取决于您用于

Hadoop 2.6.0 官方实例 : Yarn (MR2) much slower than Map Reduce (MR1) in single node setup

我开始玩hadoop2.6.0,根据officialdocumentation搭建了一个伪分布式单节点系统.当我运行简单的MapReduce(MR1)示例(参见“伪分布式操作->执行”)时,总执行时间约为7秒。更准确地说,bash的时间给出:real0m6.769suser0m7.375ssys0m0.400s当我通过Yarn(MR2)运行相同的示例时(参见“伪分布式操作->YARNonSingleNode”),总执行时间约为100sec,因此非常慢。bash的时间给出:real1m38.422suser0m4.798ssys0m0.319s因此,(出于某种原因)在用户空间之外存在大量

hadoop - 谷歌云引擎 : LibSnappy not installed errur during command-line installation of Hadoop

我正在尝试使用commandlineoption在GoogleComputeEngine上安装自定义Hadoop实现(>2.0).我的bdutil_env.sh文件修改参数如下:GCE_IMAGE='ubuntu-14-04'GCE_MACHINE_TYPE='n1-standard-1'GCE_ZONE='us-central1-a'DEFAULT_FS='hdfs'HADOOP_TARBALL_URI='gs:///'./bdutil部署失败,退出代码为1。我在生成的debug.info文件中发现以下错误:ssh:connecttohost130.211.161.181port22

mysql - 配置单元错误 : FAILED: SemanticException [Error 10017]: Line 4:28 Both left and right aliases encountered in JOIN 'status_cd'

我在HIVE中有以下查询,它抛出“FAILED:SemanticException[错误10017]:第4:28行在JOIN'status_cd'中遇到左右别名”错误。整个查询似乎是正确的,我在MYSQL中也执行了类似的查询,它工作正常。仅在Hive中它会抛出错误。HIVE中是否存在导致问题的任何限制。请查看以下查询,我们将不胜感激。INSERTINTOTABLEstg_dim_gate_packageSELECT`16_1693_418`.`package_id`AS`6896_package_id`,`16_1723_432`.`status_cd`AS`7075_status_c

hadoop - 担心 : Corrupt HDFS on single node - how to resolve

我在一台机器上运行CDH5.6(Hadoop2.6,HBase1.0.0)。只有Hadoop和HBase在运行。Hadoop配置为复制因子1,Hbase运行在HDFS之上,没有伪分布式模式。在过去的三天里,我运行了一个简单的程序,该程序使用10个并行线程将行插入到HBase。现在检查它,我发现HDFS已经损坏,除了一个插入线程外,其他所有线程都失败了。运行hdfsfsck/|grepCORRUPT我看到有一些损坏的block。hbasehbck如果没问题,什么都说。重新启动时,hdfsfsck突然再次显示其HEALTHY。开始插入在区域服务器日志中再次出现校验和错误(如下所示)。我终于

hadoop - 差异 : Single-node and Multi-node

我正在尝试在虚拟机中安装Hadoop,我找到了一个解释如何在多节点集群中执行此操作的教程。所以我的问题是单节点集群和多节点集群有什么区别?提前致谢:) 最佳答案 单节点集群:默认情况下,Hadoop配置为以非分布式或独立模式运行,作为单个Java进程。没有守护进程在运行,一切都在单个JVM实例中运行。不使用HDFS。伪分布式或多节点集群:Hadoop守护进程在本地机器上运行,从而模拟一个小规模的集群。不同的Hadoop守护进程运行在不同的JVM实例中,但在一台机器上。使用HDFS代替本地FS

hadoop - pig : How to exclude first n lines while Loading

有没有办法在pig上加载一些数据时排除文件的前n行?我有一个要加载的csv文件,但我必须忽略前3行。 最佳答案 一种选择是您可以这样尝试。A=LOAD'input';B=RANKA;C=FILTERBBY$0>3;D=FOREACHCGENERATE$1..;DUMPD;如果您在加载stmt中定义了架构,则使用定义的名称代替位置符号($0、$1等)。它将更具可读性。 关于hadoop-pig:HowtoexcludefirstnlineswhileLoading,我们在StackOver

java - spring-xd如何使用source :file read line one by one

我有一个流,用于监视目录中多个文件的输出、处理数据并将其放入HDFS。这是我的流创建命令:streamcreate--namefileHdfs--definition"file--dir=/var/log/supervisor/--pattern=tracker.out-*.log--outputType=text/plain|logHdfsTransformer|hdfs--fsUri=hdfs://192.168.1.115:8020--directory=/data/log/appsync--fileName=log--partitionPath=path(dateFormat(