草庐IT

hive-overwrite

全部标签

java - Hive 事务正在崩溃

好吧,我已经处理这个问题几天了,这让我发疯了。我需要使用带有事务的Hive数据库来执行“更新”和“删除”操作。我已经以伪分布式模式在我的机器上安装了Hadoop和Hive。我已关注此tutorial用于安装。我使用的是Java1.8.0_31、Hadoop2.6.0、Hive1.0.0,我还更改了一些细节,但这些应该无关紧要。现在,要启动我的环境(例如,重新启动后),我运行以下命令:start-dfs.shstart-yarn.shjava-jar/usr/local/derby/lib/derbyrun.jarserverstart&hive一切似乎都运行良好。尽管本教程没有提到启动

hadoop - 使用架构文件创建一个 Parquet 支持的 Hive 表

Clouderadocumentation,展示了一种简单的方法来“使用Avro模式文件创建Avro支持的Hive表。”这很好用。我想对Parquet支持的Hive表做同样的事情,但是相关的documentation在这种情况下,列出了每个列类型,而不是从模式中读取。是否有可能以与Avro数据相同的方式从模式中读取Parquet列? 最佳答案 目前,答案似乎是否。Hive有一个Unresolved问题。https://issues.apache.org/jira/browse/PARQUET-76这个问题最近很活跃,所以希望Hive

hadoop - Hive 为 HDFS 中的每个插入创建多个小文件

下面已经实现了KafkaProducer使用SparkStreaming从Twitter中提取数据。KafkaConsumer将数据提取到Hive外部表(在HDFS上)。虽然到目前为止一切正常。我只面临一个问题,当我的应用程序将数据插入Hive表时,它创建了一个小文件,每个文件的每一行数据。下面是代码//Definewhichtopicstoreadfromvaltopic="topic_twitter"valgroupId="group-1"valconsumer=KafkaConsumer(topic,groupId,"localhost:2181")//CreateSparkCo

r - 无法在 dplyr.spark.hive 包中创建由 SparkSQL 支持的 dplyr src

最近我发现了很棒的dplyr.spark.hive启用dplyr的软件包前端操作spark或hive后端。在包的README中有关于如何安装此包的信息:options(repos=c("http://r.piccolboni.info",unlist(options("repos"))))install.packages("dplyr.spark.hive")还有很多关于如何使用dplyr.spark.hive的例子当一个已经连接到hiveServer-checkthis.但我无法连接到hiveServer,所以我无法从这个包的强大功能中受益...我试过这样的命令,但没有成功。有没有人

csv - HIVE 因不工作而逃脱 '\\'

我在S3中有一个数据集123,"一些随机的文本","","",236我在此数据集上构建了一个外部表:CREATEEXTERNALTABLEdb1.myData(field1bigint,field2string,field3string,field4string,field5bigint,ROWFORMATDELIMITEDFIELDSTERMINATEDBY','ESCAPEDBY'\\'LOCATION's3n://thisMyData/';问题/议题:当我做从db1.myData中选择*field2显示为somerandom我需要的字段是somerandom,text陷阱:1.我

hadoop - 来自 CSV 的 Hive 表。引号中的行终止

我尝试从保存到HDFS中的CSV文件创建表格。问题是csv包含引号内的换行符。CSV格式的记录示例:ID,PR_ID,SUMMARY2063,1184,"ThisisproblemfieldbecauseconsistslinebreakThisisnotnewrecordbutitispartoftextofthirdcolumn"我创建了配置单元表:CREATETEMPORARYEXTERNALTABLEhive_database.hive_table(IDSTRING,PR_IDSTRING,SUMMARYSTRING)rowformatserde'com.bizo.hive.s

scala - 每个列值的 Spark 计数和百分比异常处理和加载到 Hive DB

在下面的ScalaSpark代码中,我需要找到不同列的计数及其值的百分比。为此,我需要对每一列使用withColumn方法,例如date、usage、payment、dateFinal,usageFinal,paymentFinal。对于每个计算,我都需要使用withColumn来获取总和和聚合。有什么方法可以让我不用写,.withColumn("SUM",sum("count").over()).withColumn("fraction",col("count")/sum("count").over()).withColumn("Percent",col("fraction")*10

hadoop - Hive Tez reducer 运行速度超慢

我加入了多个表,总行数约为250亿行。最重要的是,我正在做聚合。下面是我的配置单元设置,我用它来生成最终输出。我不太确定如何调整查询并使其运行得更快。目前,我正在反复试验,看看是否能产生一些结果,但似乎没有用。Mappers运行得更快,但reducers需要很长时间才能完成。谁能分享您对此的看法?谢谢。SEThive.execution.engine=tez;SEThive.exec.dynamic.partition.mode=nonstrict;SEThive.qubole.cleanup.partial.data.on.failure=true;SEThive.tez.conta

date - hive 中是否有将纪元时间转换为标准日期的函数?

to_date函数将此“1970-11-0100:00:00”作为输入并返回“1970-11-01”。但我有纪元时间作为输入。如何将其转换为标准日期格式?有一个函数可以将标准日期转换为unix纪元时间,但反之则不行。感谢任何帮助。谢谢普里扬克 最佳答案 发件人:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF#LanguageManualUDF-DateFunctionsfrom_unixtime(bigintunixtime[,stringfor

amazon-s3 - 为什么一个hive查询的结果会拆分成多个文件

我设置了一个AmazonElasticMapreduce作业来运行配置单元查询CREATEEXTERNALTABLEoutput_dailies(daystring,typestring,subTypestring,productstring,productDetailsstring,uniqueUsersint,totalUsersint)ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t'LINESTERMINATEDBY'\n'STOREDASTEXTFILELOCATION'${OUTPUT}';INSERTOVERWRITETABLEoutput_