草庐IT

hive-overwrite

全部标签

hadoop - 如何混淆 Hive View 中的列?

我已经为表创建了一个View:CREATEVIEWanonymous_tableASSELECTid,valueFROMsensitive_table并希望以某种方式混淆敏感表的id字段,例如MD5哈希或类似的东西,以便查询View的人看不到实际的id。在Hive中执行此操作的好方法是什么? 最佳答案 一些选项:根本不要在您的View中包含ID:CREATEVIEWsomethingASSELECT"HIDDENID",valuefromsensitive_table;如果您仍然需要为每条记录提供一个不同的键,您可以编写一个UDF来

jdbc - Hive JDBC getConnection 不返回

我正在学习配置单元JDBC教程。我无法让它工作。当它试图获得连接时,它只是挂起。它也不报告任何错误。我确定Hive服务器正在运行。有帮助吗?publicclassHiveJdbcClient{privatestaticStringdriverName="org.apache.hadoop.hive.jdbc.HiveDriver";publicstaticvoidmain(String[]args){try{Class.forName(driverName);}catch(ClassNotFoundExceptione){e.printStackTrace();System.exit(

hadoop - Hive gzip文件解压

我已经将一堆.gz文件加载到HDFS中,当我在它们之上创建一个原始表时,我在计算行数时看到了奇怪的行为。将gz表中的count(*)结果与未压缩表中的结果进行比较,结果相差约85%。压缩文件gz的表记录较少。有人见过这个吗?CREATEEXTERNALTABLEIFNOTEXISTStest_gz(col1string,col2string,col3string)ROWFORMATDELIMITEDLINESTERMINATEDBY'\n'LOCATION'/data/raw/test_gz';selectcount(*)fromtest_gz;result1,123,456selec

php - 在 PHP 中通过 Hive/Thrift 查询数据库不起作用

我正在尝试通过PHP中的Hive/Thrift查询数据库。但是,我不断收到错误消息:TSocket:timedoutreading4bytesfromXYZ我正在使用来自的代码https://cwiki.apache.org/Hive/hiveclient.html#HiveClient-PHP连同这个PHPThrift客户端https://github.com/garamon/php-thrift-hive-client我的代码:setSendTimeout(30*1000);$socket->setRecvTimeout(30*1000);$transport=newTBuffer

hadoop - 确认为特定 Hive 表启用了压缩

我需要对一系列表格进行基准测试,有些是压缩的,有些不是。我通过设置压缩:hive>SEThive.exec.compress.output=true;hive>SETmapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;...并使用INSERTOVERWRITE填充表。有没有办法通过命令行(类似于DESCRIBEEXTENDED)确认为特定表启用了输出压缩? 最佳答案 当您执行describeformattedorc_with_compre

hadoop - Hive 查询不使用索引

我正在分析使用索引对hive表的影响。我创建了一个包含5列的表(COL1、COL2、COL3、COL4、COL5)并在其中加载了100000行。我还在该表的COL1上创建了一个索引。我在COL1上运行了带有WHERE子句的select*,这是一个索引列。与在创建索引之前运行相同的查询相比,我发现查询运行时间没有任何改进。我对我的选择查询做了一个EXPLAIN,它显示的是TableScan而不是IndexScan,我无法弄清楚为什么它没有使用索引。请帮忙。 最佳答案 可以查看this和this但基本上是这样的;创建索引在表中创建索引.

hadoop - Hive 操作失败,主类 [org.apache.oozie.action.hadoop.HiveMain],退出代码 [40000]

我是这方面的新手,所以我完全有可能错过一些基本的东西。我正在尝试运行从协调器启动的Oozie工作流。协调器等待文件出现在目录中。工作流包含运行此脚本的Hive操作:CREATEexternalTABLEIFNOTEXISTSdaily_dump(idbigint,creationdatetimestamp,datelastupdatedtimestamp,data1string,data2string)LOCATION'/data/daily_dump';FROMdaily_dumpdINSERTOVERWRITETABLEmydata_orcPARTITION(id,datelast

hadoop - Hive 中的过滤数组

Apache配置单元表具有以下列定义:myvars:array>对应数据的例子是:"myvars":[{"index":2,"value":"value1"},{"index":1,"value":"value2"},{"index":2,"value":"value3"}]这个数组如何过滤到所有"index"==2的元素。在JavaScript中我会做类似下面的事情:myvars.filter(function(d){returnd.index==2;})如何使用ApacheHiveQL实现相同的结果,最好是没有横向View? 最佳答案

java - 在 EMR 上启动 Hive thrift 服务器时出错

在下面的代码中,我试图从spark启动一个hivethrift服务器:valconf=newSparkConf().setAppName("HiveDemo")valsc=newSparkContext(conf)valsql=newHiveContext(sc)sql.setConf("hive.server2.thrift.port","10001")valdf=sql.read.parquet("s3n://...")df.registerTempTable("test")HiveThriftServer2.startWithContext(sql)while(true){Thr

hadoop - 无法加载 Hive 分区表中的数据

我使用以下查询在Hive中创建了一个表:createtableifnotexistsemployee(CASE_NUMBERString,CASE_STATUSString,CASE_RECEIVED_DATEDATE,DECISION_DATEDATE,EMPLOYER_NAMESTRING,PREVAILING_WAGE_PER_YEARBIGINT,PAID_WAGE_PER_YEARBIGINT,order_nint)partitionedby(JOB_TITLE_SUBGROUPSTRING)rowformatdelimitedfieldsterminatedby',';我尝