我正在使用Hadoop-1.2.0、HBase-0.95.0-Hadoop1并尝试将Hive-0.11.0集成到其中。Hadoop和HBase正在运行。我能够连接到Hive并在Hive中独立执行语句。但是当我尝试通过Hive在HBase中创建表时,出现以下异常:kanmani@kanmani-VirtualBox:~/hadoop$jps6695HRegionServer2640DataNode7301Jps2969JobTracker6404HMaster3192TaskTracker2861SecondaryNameNode2413NameNode6508Main6368HQuor
我可以用这个查询创建一个Hive表CREATETABLEhbtable(keyint,valuestring)STOREDBY'org.apache.hadoop.hive.hbase.HBaseStorageHandler'WITHSERDEPROPERTIES("hbase.columns.mapping"=":key,cf1:val")TBLPROPERTIES("hbase.table.name"="xyz");我使用此查询将数据插入表中,但它不起作用,insertoverwritetablehbtableselect*fromhbtableswheres:hivefiels=
我必须通过Sqoop将MySQL表(具有复合主键)中的>4亿行导入到分区的Hive表Hive中。该表有两年的数据,一列出发日期从20120605到20140605,一天有几千条记录。我需要根据出发日期对数据进行分区。版本:ApacheHadoop-1.0.4Apachehive-0.9.0ApacheSqoop-sqoop-1.4.2.bin__hadoop-1.0.0据我所知,有3种方法:MySQL->未分区Hive表->从未分区Hive表插入已分区Hive表MySQL->分区Hive表MySQL->非分区Hive表->ALTER非分区Hive表以添加PARTITION是我正在关注的
我正在使用JDBC客户端代码连接到配置单元安装。我创建了一个包含两列(column1,column2)的测试表,它们都是字符串类型。当我尝试执行像“select*fromtest”这样的简单查询时,我在Java程序中得到了结果,但是使用where子句和其他复杂查询的查询会抛出以下异常。“查询返回非零代码:1,原因:失败:执行错误,从org.apache.hadoop.hive.ql.exec.MapRedTask返回代码1”我已经尝试更改存在文件的hdfs目录的权限,/tmp在本地目录上,但这没有用。这是我的连接代码Connectioncon=DriverManager.getConn
Hive中的以下代码是否可能,并进行一些更改?:insertintotablewebmapselecta.resreference,b.resresource,(selectcount(ip)fromweblogwhereresource=a.resandreferer=b.res)weightfromtoprefresajointoprefresb;我在hive-0.10.0-cdh4.5.0中运行它并得到错误:FAILED:ParseExceptionline3:1cannotrecognizeinputnear'select''count''('inexpressionspeci
我以这种方式从命令行调用hive-e数百次:cathive_script.hql|parallel--gnuhive-e'{}'hive_script.hql中的每一行都可以以任意顺序独立运行。有没有--hiveconf参数可以减少启动时间?Apache网页似乎暗示可能在https://cwiki.apache.org/confluence/display/Hive/LanguageManual+VariableSubstitution"ThisisfrustratingasHivebecomescloselycoupledwithscriptinglanguages.TheHives
有没有办法使用hive表检索hdfs位置Javajdbc.例如:我有一个临时表t1。在位置“/user/tables_list/t1”;我想使用java代码检索此位置。 最佳答案 据我所试,没有直接的方法可以做到这一点。但是,一旦您设置了JDBC连接,您就可以执行“DESCRIBEEXTENDED”,这(在我所做的测试中)将列出表列:res=stmt.executeQuery("DESCRIBEEXTENDEDtweets");while(res.next()){System.out.println(res.getString(1)
我使用的是hive版本0.12.0,hadoop版本2.4.0和hbase版本0.98.3我在hbase中创建了一个表信息,用一行数据填充它,为hive提供访问权限(使用外部表)运行查询时selectcount(*)frominfo;我明白了TotalMapReducejobs=1LaunchingJob1outof1Numberofreducetasksdeterminedatcompiletime:1Inordertochangetheaverageloadforareducer(inbytes):sethive.exec.reducers.bytes.per.reducer=In
我一直在尝试在S3中创建一个由Avro文件支持的Hive表。最初,我认为这可能相对简单,但我遇到了以下错误。这是创建表的命令:setfs.s3.awsAccessKeyId=ACCESS_KEY_ID;setfs.s3.awsSecretAccessKey=SECRET_ACCESS_KEY;usesome_database;CREATEEXTERNALTABLEexperiment_with_s3_backed_dataROWFORMATSERDE'org.apache.hadoop.hive.serde2.avro.AvroSerDe'WITHSERDEPROPERTIES('av
我在Hive中基于2个字段(A和B)进行分组。但它并没有为A和B的每个组合显示一个聚合值。它显示多个值,如AB1一个B4等等是不是因为reducer的数量多于1个,如何避免这个问题? 最佳答案 最近我遇到了类似的问题,在我的HQL中,我使用insertoverwritedirectory'$HQL_OUT_PATH'来覆盖输出。但它似乎不稳定导致重复项。你可能清理HQL之前的输出路径,看输出结果是否正确。 关于hadoop-Hive-按问题分组,我们在StackOverflow上找到一个