草庐IT

OutOFMemoryError

全部标签

java.lang.OutOfMemoryError : Java heap space at java. util.Arrays.copyOf(Arrays.java:3236)

我在映射器类中遇到此错误。我正在使用将解压缩的ZipFileInputFormat读取大zip文件,并使用ZipFileRecordReader我正在将其转换为文件名和文件内容作为值的键。我必须使用我的分隔符拆分内容并将其插入到HBase表中。zip文件的大小非常大且不可拆分。我的代码适用于较小的zip文件,但是当我为巨大的zip文件运行它时,它会抛出此错误。这就是问题发生的地方。//ReadthefilecontentsByteArrayOutputStreambos=newByteArrayOutputStream();byte[]temp=newbyte[8192];while(

hadoop - Apache Pig : java. lang.OutOfMemoryError:Java 堆空间

所以我正在尝试连接两只pig的关系。RELATION1=LOAD'$path'USINGAvroStorage();RELATION2=LOAD'$path'USINGAvroStorage();RELATION3=JOINRELATION1BYfield,JOINRELATION2BYfield;STORERELATION3INTO'$PATH'USINGAvroStorage();但是我收到以下错误:java.lang.RuntimeException:java.lang.reflect.InvocationTargetExceptionCausedby:java.lang.ref

vector - java.lang.OutOfMemoryError : Java heap space error while running seq2sparse in mahout 错误

我正在尝试在mahout中使用k-means对一些手工制作的日期进行聚类。我创建了6个文件,每个文件中几乎没有1或2个单词的文本。使用./mahoutseqdirectory从它们中创建一个序列文件。在尝试使用./mahoutseq2sparse命令将序列文件转换为向量时,出现java.lang.OutOfMemoryError:Javaheapspace错误。序列文件大小为0.215KB。命令:./mahoutseq2sparse-imokha/output-omokha/vector-ow错误日志:SLF4J:ClasspathcontainsmultipleSLF4Jbindin

hadoop - Mapreduce 为大输入文件抛出 OutOfMemoryError

您好,我有一个mapreducejar,它可以很好地处理小输入文件。当我说小的时候,我指的是我用少于10行输入创建的示例输入文件。但是,当我尝试对大小为1.8GB的​​输入文件运行mapreduce时,我得到了OutOfMemoryError。我不确定我应该做什么。无论如何,我可以限制生成的任务数量吗?很少有任务运行时间更长吗?在我收到此错误之前,在大型输入文件上生成了大约20个任务。这是为前两个任务生成的日志的一部分。13/12/1312:00:22INFOmapreduce.Job:Theurltotrackthejob:http://localhost:8080/13/12/13

hadoop - org.apache.hadoop.mapred.YarnChild : Error running child : java. lang.OutOfMemoryError: Java 堆空间

我有一个90MB的snappy压缩文件,我试图将其用作AWSEMR中AMI3.0.4上的Hadoop2.2.0的输入。我的记录阅读器在尝试读取文件时立即收到以下异常:2014-05-0614:25:34,210FATAL[main]org.apache.hadoop.mapred.YarnChild:Errorrunningchild:java.lang.OutOfMemoryError:Javaheapspaceatorg.apache.hadoop.io.compress.BlockDecompressorStream.getCompressedData(BlockDecompre

java - 运行子错误 : java. lang.OutOfMemoryError: Java 堆空间

我在互联网上看了很多,但没有找到解决我问题的方法。我使用Hadoop2.6.0。MapReduce的主要目标是运行SequenceFile并对键/值对进行一些分析。2015-01-2910:09:50,554INFO[main]org.apache.hadoop.mapred.MapTask:Startingflushofmapoutput2015-01-2910:09:50,554INFO[main]org.apache.hadoop.mapred.MapTask:Spillingmapoutput2015-01-2910:09:50,554INFO[main]org.apache.

Java Spark 溢出内存映射 OutOfMemoryError 错误

我正在运行以下代码(a包含大约10000行):IndexedRowMatrixqTmp=newIndexedRowMatrix(a.rows());IndexedRowMatrixqTmpT=qTmp.toCoordinateMatrix().transpose().toIndexedRowMatrix();我收到以下错误:15/06/1910:08:52INFOExternalAppendOnlyMap:Thread66spillingin-memorymapof24.8MBtodisk(1timesofar)15/06/1910:08:54INFOExternalAppendOnl

apache-spark - 简单的 rdd.count() 操作的 java.lang.OutOfMemoryError

我在对hdfs上的大约55个文件和总共1B条记录进行简单计数操作时遇到了很多麻烦。spark-shell和PySpark都因OOM错误而失败。我正在使用yarn、MapR、Spark1.3.1和hdfs2.4.1。(它在本地模式下也失败了。)我尝试遵循调整和配置建议,向执行程序投入越来越多的内存。我的配置是conf=(SparkConf().setMaster("yarn-client").setAppName("pyspark-testing").set("spark.executor.memory","6g").set("spark.driver.memory","6g").set

hadoop - 当 mapred.job.shuffle.input.buffer.percent=0.70 时,pig join 在 reducer 中出现 OutOfMemoryError

我们正在一个小表和一个大倾斜表之间进行简单的pig连接。由于另一个错误(pigskewedjoinwithabigtablecauses"Splitmetadatasizeexceeded10000000"),我们无法使用"usingskewed":(如果我们使用默认的mapred.job.shuffle.input.buffer.percent=0.70我们的一些reducer在shuffle阶段会失败:org.apache.hadoop.mapred.Task:attempt_201305151351_21567_r_000236_0:Mapoutputcopyfailure:ja

sql - Hive: java.lang.OutOfMemoryError: Java heap space and Job running in-process (local Hadoop)

我的设置:运行NixOSLinux的GoogleCloudPlatform中的4节点集群(1个主节点,3个工作节点)。我一直在使用TPC-DS工具包来生成数据和查询都是标准的。在较小的数据集/更简单的查询上,它们工作得很好。我从这里获取的查询:https://github.com/hortonworks/hive-testbench/tree/hdp3/sample-queries-tpcds这是第一个,query1.sql:WITHcustomer_total_returnAS(SELECTsr_customer_skASctr_customer_sk,sr_store_skASct