草庐IT

table_info

全部标签

hadoop - 执行以下 Hive 查询 : SELECT COUNT(*) FROM TABLE; for a table with 8bn rows/40 columns/400Gb? 的大概数字是多少

执行以下Hive查询的大概数字是多少:SELECTCOUNT(*)FROMTABLE;对于下表:行数:~80亿列数:40,各种大小的int、double和stringHDFS上的大小:~400Gb我想将任何大概数字与真实数字进行比较,以查看系统配置是否正确。如果我错过了一些重要的事情,我深表歉意,我是Hive和Hadoop的新手。此外,如果机器数量也按比例增加,执行时间是否会与行数成线性比例? 最佳答案 提供大概数字是不可能的。但是我们可以列出影响因素:集群中配置的MapTask数量block大小(决定将使用的映射器的数量)执行时间

hadoop - 配置单元 : getting parseexception in simple create external table query

我已经在mac上设置了hive。在执行简单的创建外部表查询时。我正在跟踪堆栈跟踪:hive>CREATEEXTERNALTABLEweatherext(wbanINT,dateSTRING)>ROWFORMATDELIMITED>FIELDSTERMINATEDBY‘,’>LOCATION‘/hive/data/weatherext’;NoViableAltException(80@[])atorg.apache.hadoop.hive.ql.parse.HiveParser.columnNameTypeOrPKOrFK(HiveParser.java:33341)atorg.apac

【flink番外篇】9、Flink Table API 支持的操作示例(1)-完整版

Flink系列文章一、Flink专栏Flink专栏系统介绍某一知识点,并辅以具体的示例进行说明。1、Flink部署系列本部分介绍Flink的部署、配置相关基础内容。2、Flink基础系列本部分介绍Flink的基础部分,比如术语、架构、编程模型、编程指南、基本的datastreamapi用法、四大基石等内容。3、FlikTableAPI和SQL基础系列本部分介绍FlinkTableApi和SQL的基本用法,比如TableAPI和SQL创建库、表用法、查询、窗口函数、catalog等等内容。4、FlikTableAPI和SQL提高与应用系列本部分是tableapi和sql的应用部分,和实际的生产应

java - 每次调用 logger.info/debug/warn() 调用时,只用 log4j 记录一次

我有一个特定的日志消息可能会被打印很多次的场景(可能是数百万次)。例如,如果我们记录(使用logger.warn()方法)每条缺少字段的记录,我们最终可能会记录很多输入文件有很多记录的情况缺少字段(例如,HDFS上的大文件)。这很快就会填满磁盘空间。为避免这种情况,我尝试为每(例如)1000条缺少字段的记录记录一次。我可以在log4j包之外实现所有这些逻辑,但我想知道是否有更简洁的方法来执行此操作。理想情况下,所有这些逻辑都将进入log4j代码。这似乎是一个经常遇到的问题,但几乎没有关于此的任何信息。有什么想法吗? 最佳答案 Log

hadoop - ALTER TABLE (Hive) 中的动态数据

我的查询出现错误,我不完全确定原因:ALTERTABLErevenueADDPARTITION(ds=from_unixtime(unix_timestamp(),'yyyy-MM-dd'))LOCATIONCONCAT('s3://userenroll-analytics/prod/revenue/avro/',from_unixtime(unix_timestamp(),'yyyy/MM/dd'))错误:Errorwhilecompilingstatement:FAILED:ParseExceptionline1:38cannotrecognizeinputnear'from_un

hadoop - pig : get data from hive table and add partition as column

我有一个分区的Hive表,我想将其加载到Pig脚本中,并且还想将分区添加为列。我该怎么做?Hive中的表定义:CREATEEXTERNALTABLEIFNOTEXISTStransactions(column1string,column2string)PARTITIONEDBY(datestampstring)ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t'LOCATION'/path';pig脚本:%defaultINPUT_PATH'/path'A=LOAD'$INPUT_PATH'USINGPigStorage('|')AS(column1:cha

hadoop - Hbase 0.92.1 : how to fix . 元数据。 table ,因为它丢失了一些 regioninfo

我的Hbase版本是0.92.1。我发现我的reduce作业有异常,例如:java.io.IOException:HRegionInfowasnulloremptyin.META.,row=keyvalues={single,20150411hxmyxy2013REF//336d5ebc5436534e61d16e63ddfca3277f92f92e8e693531c12a1dcc773f9ffa,1430298962344.ea72df9a3703e476b9f7e3368be47aa2./info:server/1430356486086/Put/vlen=28,single,20

linux - 转瞬即逝 + hive : CLUSTERED TABLE

我在HIVE中有聚簇表。所有查询都在hive-client中工作。但是我不能用这个表运行任何查询:Query...failed:Hivetableiscorrupt.Itisdeclaredasbeingbucketed,butthefilesdonotmatchthebucketingdeclaration.Thenumberoffilesinthedirectory(0)doesnotmatchthedeclaredbucketcount(8)forpartition:在设置hive.enforce.bucketing=true;之后错误:Query...failed:Hiveta

hadoop - 使用参数化位置的 Hive CREATE EXTERNAL TABLE

这按预期工作:DROPTABLEmytable;CREATEEXTERNALTABLEmytable(Dim1STRING,Dim2STRING,Dim3STRING)LOCATION'hdfs:///user/myuser/data';但这不是:setrootpath='hdfs:///user/myuser/data';DROPTABLEmytable;CREATEEXTERNALTABLEmytable(Dim1STRING,Dim2STRING,Dim3STRING)LOCATION'${hiveconf:rootpath}';失败并出现以下错误(Hive0.9.0):FAIL

hadoop - datastax cqlsh alter table add column,但在配置单元中看不到该列,怎么办?

cqlsh:test>altertableexampleaddtint;then,bash$dsehivehive>usetest;descexample;OKkintfromdeserializervstringfromdeserializer在配置单元中看不到新列t。dse版本是3.1.3。我需要做什么? 最佳答案 您不需要删除任何键空间或重新启动DSE或Hive,只需删除Hive表并让DSE通过发出use命令重新创建它。hive>descex;OKkintfromdeserializervstringfromdeseriali