草庐IT

line-spacing

全部标签

java - 鉴于我正在将 DataBag 溢出到磁盘,为什么这个 Pig UDF 会导致 "Error: Java heap space"?

这是我的UDF:publicDataBagexec(Tupleinput)throwsIOException{AggregateaggregatedOutput=null;intspillCount=0;DataBagoutputBag=BagFactory.newDefaultBag();DataBagvalues=(DataBag)input.get(0);for(Iteratoriterator=values.iterator();iterator.hasNext();){Tupletuple=iterator.next();//spillCount++;...if(someco

hadoop - 谷歌云引擎 : LibSnappy not installed errur during command-line installation of Hadoop

我正在尝试使用commandlineoption在GoogleComputeEngine上安装自定义Hadoop实现(>2.0).我的bdutil_env.sh文件修改参数如下:GCE_IMAGE='ubuntu-14-04'GCE_MACHINE_TYPE='n1-standard-1'GCE_ZONE='us-central1-a'DEFAULT_FS='hdfs'HADOOP_TARBALL_URI='gs:///'./bdutil部署失败,退出代码为1。我在生成的debug.info文件中发现以下错误:ssh:connecttohost130.211.161.181port22

hadoop - 加入 : space available is below the configured reserved amount 的配置单元查询

我在单节点集群上使用hive执行sql查询,我收到此错误:MapReduceJobsLaunched:Stage-Stage-20:HDFSRead:4456448HDFSWrite:0FAILTotalMapReduceCPUTimeSpent:0msec在日志http://localhost:50070/logs/hadoop-hadoop-namenode-hadoop.log中,可用空间似乎低于配置的保留量:org.apache.hadoop.hdfs.server.namenode.NameNodeResourceChecker:Spaceavailableonvolume'

mysql - 配置单元错误 : FAILED: SemanticException [Error 10017]: Line 4:28 Both left and right aliases encountered in JOIN 'status_cd'

我在HIVE中有以下查询,它抛出“FAILED:SemanticException[错误10017]:第4:28行在JOIN'status_cd'中遇到左右别名”错误。整个查询似乎是正确的,我在MYSQL中也执行了类似的查询,它工作正常。仅在Hive中它会抛出错误。HIVE中是否存在导致问题的任何限制。请查看以下查询,我们将不胜感激。INSERTINTOTABLEstg_dim_gate_packageSELECT`16_1693_418`.`package_id`AS`6896_package_id`,`16_1723_432`.`status_cd`AS`7075_status_c

hadoop - pig : How to exclude first n lines while Loading

有没有办法在pig上加载一些数据时排除文件的前n行?我有一个要加载的csv文件,但我必须忽略前3行。 最佳答案 一种选择是您可以这样尝试。A=LOAD'input';B=RANKA;C=FILTERBBY$0>3;D=FOREACHCGENERATE$1..;DUMPD;如果您在加载stmt中定义了架构,则使用定义的名称代替位置符号($0、$1等)。它将更具可读性。 关于hadoop-pig:HowtoexcludefirstnlineswhileLoading,我们在StackOver

java - 运行简单的 mapreduce 作业时出现错误 "java.lang.OutOfMemoryError: Java heap space"

我一直在尝试在RHEL6中为wordcount运行一个简单的Mapreduce作业,但我一直收到此错误。请帮忙。13/01/1319:59:01INFOmapred.MapTask:io.sort.mb=10013/01/1319:59:01WARNmapred.LocalJobRunner:job_local_0001java.lang.OutOfMemoryError:Javaheapspaceatorg.apache.hadoop.mapred.MapTask$MapOutputBuffer.(MapTask.java:949)atorg.apache.hadoop.mapred

Hadoop :No space left on device

我在hadoop中遇到以下异常,同时运行一些任务。但是HDFS显示有空间。有关此错误的任何信息都会有所帮助。java.lang.RuntimeException:org.apache.hadoop.fs.FSError:java.io.IOException:Nospaceleftondeviceatorg.apache.hadoop.hive.ql.exec.ExecReducer.reduce(ExecReducer.java:270)atorg.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:506)at

scala - 为什么创建 HiveContext 失败并返回 "java.lang.OutOfMemoryError: PermGen space"?

我正在使用SparkSQL解析JSON,它工作得非常好,它找到了模式,我正在用它进行查询。现在我需要“扁平化”JSON,并且我在论坛上读到最好的方法是使用Hive(横向View)爆炸,所以我尝试对它做同样的事情。但我什至无法创建上下文...Spark给我一个错误,我找不到如何修复它。正如我所说,此时我只是想创建上下文:println("CreateSparkContext:")valsc=newSparkContext("local","Simple","$SPARK_HOME")println("CreateHivecontext:")valhiveContext=newHiveCo

java - spring-xd如何使用source :file read line one by one

我有一个流,用于监视目录中多个文件的输出、处理数据并将其放入HDFS。这是我的流创建命令:streamcreate--namefileHdfs--definition"file--dir=/var/log/supervisor/--pattern=tracker.out-*.log--outputType=text/plain|logHdfsTransformer|hdfs--fsUri=hdfs://192.168.1.115:8020--directory=/data/log/appsync--fileName=log--partitionPath=path(dateFormat(

Hadoop 无法完成作业,因为 "No space left on device"

我正在尝试运行一个非常简单的hadoop作业。它是对经典wordCount的修改,它不计算单词,而是计算文件中的行数。我想用它来清理一堆我知道有重复的大日志文件(每个大约70GB)。每行都是一条“记录”,因此我只想获取每条记录一次。我知道我的代码是有效的,因为当我用小的普通文件运行它时,它做了它应该做的事情。当我用大文件运行它时,Hadoop表现得很严格。首先,它开始在MAP阶段正常工作,该阶段通常可以毫无问题地达到100%。然而,在处理REDUCE时,它永远不会超过50%。它可能达到40%,然后在显示一些“设备上没有剩余空间”异常后回到0%:FSError:java.io.IOExc