草庐IT

main_table

全部标签

java - 线程 "main"java.lang.OutOfMemoryError 中的异常

我正在用java读取大量XML文件,并将它们转换为JSON并将它们写回文件系统。XML文件夹的总大小约为100Gb,单个XML文件的大小可达100MB左右。JVM内存大小设置为512Mb。这是读取和写入文件的循环:for(inti=0;i运行一段时间后,该程序抛出:Exceptioninthread"main"java.lang.OutOfMemoryError:Javaheapspace,如果我将JVM内存增加到-Xmx1024程序运行非常缓慢并且java进程消耗大量内存。因为我在for循环中创建文件、stringbuilder和bufferedreader,所以它们在内存中,不会被

hadoop - 执行以下 Hive 查询 : SELECT COUNT(*) FROM TABLE; for a table with 8bn rows/40 columns/400Gb? 的大概数字是多少

执行以下Hive查询的大概数字是多少:SELECTCOUNT(*)FROMTABLE;对于下表:行数:~80亿列数:40,各种大小的int、double和stringHDFS上的大小:~400Gb我想将任何大概数字与真实数字进行比较,以查看系统配置是否正确。如果我错过了一些重要的事情,我深表歉意,我是Hive和Hadoop的新手。此外,如果机器数量也按比例增加,执行时间是否会与行数成线性比例? 最佳答案 提供大概数字是不可能的。但是我们可以列出影响因素:集群中配置的MapTask数量block大小(决定将使用的映射器的数量)执行时间

hadoop - 配置单元 : getting parseexception in simple create external table query

我已经在mac上设置了hive。在执行简单的创建外部表查询时。我正在跟踪堆栈跟踪:hive>CREATEEXTERNALTABLEweatherext(wbanINT,dateSTRING)>ROWFORMATDELIMITED>FIELDSTERMINATEDBY‘,’>LOCATION‘/hive/data/weatherext’;NoViableAltException(80@[])atorg.apache.hadoop.hive.ql.parse.HiveParser.columnNameTypeOrPKOrFK(HiveParser.java:33341)atorg.apac

使用Runtime.exec()编译和执行时,无法加载Main类。

我有以下代码运行三个执行:publicstaticvoidmain(String[]args)throwsInterruptedException,IOException{Stringfilepath1="cmd/cgradlewjmhJar";Stringfilepath2="cmd/cjava-jarpath/to/the/file/filename.jar-rfcsv-rffpath/to/save/file1.csv-wi3-i5-f2";Stringfilepath4="cmd/cjavacpath/to/the/file/ParserHash.java";/*Codetocompi

【flink番外篇】9、Flink Table API 支持的操作示例(1)-完整版

Flink系列文章一、Flink专栏Flink专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink的基础部分,比如术语、架构、编程模型、编程指南、基本的datastreamapi用法、四大基石等内容。3、FlikTableAPI和SQL基础系列本部分介绍FlinkTableApi和SQL的基本用法,比如TableAPI和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、FlikTableAPI和SQL提高与应用系列本部分是tableapi和sql的应用部分,和实际的生产应

java - ERROR [main] master.HMasterCommandLine : Master exiting java. lang.RuntimeException: Master 构建失败

尝试使用HADOOP运行HBASE时出现以下错误HBASE0.98.xHADOOP2.4.0ERROR[main]master.HMasterCommandLine:Masterexitingjava.lang.RuntimeException:FailedconstructionofMaster:classorg.apache.had$atorg.apache.hadoop.hbase.util.JVMClusterUtil.createMasterThread(JVMCl$atorg.apache.hadoop.hbase.LocalHBaseCluster.addMaster(L

hadoop - ALTER TABLE (Hive) 中的动态数据

我的查询出现错误,我不完全确定原因:ALTERTABLErevenueADDPARTITION(ds=from_unixtime(unix_timestamp(),'yyyy-MM-dd'))LOCATIONCONCAT('s3://userenroll-analytics/prod/revenue/avro/',from_unixtime(unix_timestamp(),'yyyy/MM/dd'))错误:Errorwhilecompilingstatement:FAILED:ParseExceptionline1:38cannotrecognizeinputnear'from_un

hadoop - pig : get data from hive table and add partition as column

我有一个分区的Hive表,我想将其加载到Pig脚本中,并且还想将分区添加为列。我该怎么做?Hive中的表定义:CREATEEXTERNALTABLEIFNOTEXISTStransactions(column1string,column2string)PARTITIONEDBY(datestampstring)ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t'LOCATION'/path';pig脚本:%defaultINPUT_PATH'/path'A=LOAD'$INPUT_PATH'USINGPigStorage('|')AS(column1:cha

macos - mahout 0.9 和 hadoop 2.6 中线程 "main"java.lang.IncompatibleClassChangeError 中的异常

我正在尝试运行随机森林示例。我运行的命令是hadoopjarmahout-examples-0.9-job.jarorg.apache.mahout.classifier.df.mapreduce.BuildForest-Dmapred.max.split.size=1874231-dtestdata/KDDTrain+.arff-dstestdata/KDDTrain.info-sl5-p-t100-onsl-forest我遇到了这个错误:Exceptioninthread"main"java.lang.IncompatibleClassChangeError:Foundinterf

hadoop - Hbase 0.92.1 : how to fix . 元数据。 table ,因为它丢失了一些 regioninfo

我的Hbase版本是0.92.1。我发现我的reduce作业有异常,例如:java.io.IOException:HRegionInfowasnulloremptyin.META.,row=keyvalues={single,20150411hxmyxy2013REF//336d5ebc5436534e61d16e63ddfca3277f92f92e8e693531c12a1dcc773f9ffa,1430298962344.ea72df9a3703e476b9f7e3368be47aa2./info:server/1430356486086/Put/vlen=28,single,20