草庐IT

hive-overwrite

全部标签

apache-spark - 齐柏林飞艇 : Not Showing Hive Database/tables in HDP3. 0

我已经安装了Hortonworkshdp3.0并配置了Zeppelin。当我运行spark或sql时,Zeppelin只显示默认数据库(这是Spark的默认数据库,位置为“/apps/spark/warehouse”,而不是Hive的默认数据库)。这可能是因为hive.metastore.warehouse.dir属性不是从hive-site.xml设置的,而zeppelin是从Spark配置(spark.sql.warehouse.dir)中选择的。我对spark也有类似的问题,这是由于spark-conf目录中的hive-site.xml文件,我能够通过将hive-site.xml

Hadoop :Approach to load Local xml files from Share location to Hive

我的要求是将不同来源收集到网络共享文件夹中的XML文件加载到Hive中。我需要确认要遵循的方法。根据我的理解,我必须1.首先将所有文件加载到HDFS2.然后使用Mapreduce或sqoop将xml文件转换为所需的表,然后我必须将它们加载到Hive中。如果有更好的方法,请给我建议。 最佳答案 处理和读取XML文件Mahout具有XML输入格式,请参阅下面的博客文章了解更多信息https://github.com/apache/mahout/blob/ad84344e4055b1e6adff5779339a33fa29e1265d/e

hadoop - Hive:连接两个具有不同键的表

我有如下两个表格。基本上我想加入他们两个并期待如下结果。表2的前3行没有任何事件ID只是空的。所有字段均以制表符分隔。根据表2,类别“33”具有三个描述。我们需要使用“事件ID”来获取“33”类别的结果,因为它有3个值。谁能告诉我如何实现这个输出?表:1Empid类别ActivityID4412633火车4412710个UFL4412812个话题4412933未分配4413015微软4413133个好处4413243个好处表2:类别ActivityIDCategdesc10计费12计费15不可计费33TRAIN培训33未分配的替补席33好处好处43个好处预期输出:4412633训练44

hadoop - 在 Hive 中只显示一次 [优雅的方式]

如何使用内置的DateandTimefunctions只显示一次日期在mysql中我们可以做selectcurdate();得到+------------+|curdate()|+------------+|2013-07-23|+------------+尝试selectunixtime();在Hive中给我FAILED:ParseExceptionline1:17mismatchedinput''expectingFROMnear')'infromclause正在做,selectfrom_unixtime(unix_timestamp(),"yyyy-MM-hh")fromabc.

hadoop - 使用 JOIN 语法的 Hive RLIKE

我在配置单元上有两个表。第一个称为“访问”,包含apache日志,其中第一个字段是完整的ip地址:10.4.5.12--[26/Jun/2010:11:16:09+1000]"GET/myportal/pageAHTTP/1.1"10.4.41.2--[26/Jun/2010:11:18:09+1000]"GET/myportal/pageBHTTP/1.1"10.5.1.111--[26/Jun/2010:11:22:09+1000]"GET/myportal/pageAHTTP/1.1"192.10.4.177--[26/Jun/2010:11:22:41+1000]"GET/my

hadoop - 如何从HDFS加载数据到Hive

我正在尝试将数据从HDFS加载到配置单元中。但我观察到数据正在移动,这意味着在将数据加载到配置单元环境后,如果我查看HDFS,我加载的数据不存在。你能用例子回答这个问题吗? 最佳答案 如果你想从HDFS中的数据在Hive中创建一个表而不将数据移动到/user/hive/warehouse/,你应该使用可选的EXTERNAL和LOCATION关键字。例如,来自thispage,我们有以下示例CREATETABLE语句:hive>CREATEEXTERNALTABLEuserline(lineSTRING)ROWFORMATDELIMI

hadoop - Hive 表导出优化

我希望优化或减少以下工作流程中的步骤数。我有一个名为sayLogs的Hive表。我应用一些自定义udf来获取转换后的日志。我将转换后的日志创建为一个表格,类似CREATETABLEtransform_logsROWFORMATDELIMITEDFIELDSTERMINATEDBY','LINESTERMINATEDBY'\n'ASSELECTnonsafehash(visitorid),nonsafehash(url),actionFROMlogs然后我做./bin/hadoopdfs-cat/user/hive/warehouse/transform_logs/\*>transfor

hadoop - 热点使用hive插入Cassandra

使用EC2datastaxami评估DSE3.1.3Cassandra.测试设置5xm1.xlarge在一次测试中:4vcpus,15G,4x420G实例店铺。另一个5xhi1.4xlarge:16vcpus,60G,2x1TBSSD实例存储。数据5000多个apache日志文件,约60GB,60MM行。工作流程通过dsehadoopfs-put加载到CFS使用RegexSerDe从CFS加载到Hive。通过键空间日志中的CQL在Cassandra中创建事件表。通过INSERTINTOlogs.event从hive插入Cassandra。总体而言,前两个步骤的性能以及基本查询与其他ha

hadoop - Hive 中分区表的用途是什么?

我知道分区表用于水平分配负载,但它们的具体用途是什么?谁能用一个简单的例子向我解释一下? 最佳答案 分区允许Hive访问您的数据子集,而无需读取所有数据。这是为什么这可能有用的具体示例。为了使这一点易于理解,我的解释非常精简,如果您想要的不仅仅是我试图提供的表面层面的理解,我建议您阅读其他地方的Hive分区。您正在以每天~1TB的速率接收带时间戳的数据。您有100天前的数据,总数据负载为~100TB。很多时候,您希望汇总过去10天的一些数据。如果不进行分区,您将不得不读入所有100TB数据,尽管其中大部分数据无论如何都会被Hive忽

使用 Spark 抽取 MySQL 数据到 Hive 时某列字段值出现异常(字段错位)

文章目录源数据描述问题复现问题解析问题解决源数据描述在MySQL中建立了表order_info,其字段信息如下所示:+--------------------+------------------+------+-----+-------------------+-----------------------------+|Field|Type|Null|Key|Default|Extra|+--------------------+------------------+------+-----+-------------------+-----------------------------