草庐IT

create_engine

全部标签

mysql - 使用 --create-hive-table 直接在 hive 中导入 mysql 表(sqoop)

我正在为HDPCD考试进行self培训,因此我正在测试使用MySQL到Hive的所有可能的导入和导出。在这个例子中,我想从MySQL导入一个表,并使用参数--create-hive-table在hive中从头开始创建同一个表。尽管在[documentation][1]中包含它,但我找到了一个正确的示例来执行此操作。我已经试过了,但它不起作用sqoopimport--connectjdbc:mysql://master/poc--usernameroot--tabledept--where'id_dept>2'--hive-import--hive-databasepoc--hive-t

hadoop - 配置单元 : getting parseexception in simple create external table query

我已经在mac上设置了hive。在执行简单的创建外部表查询时。我正在跟踪堆栈跟踪:hive>CREATEEXTERNALTABLEweatherext(wbanINT,dateSTRING)>ROWFORMATDELIMITED>FIELDSTERMINATEDBY‘,’>LOCATION‘/hive/data/weatherext’;NoViableAltException(80@[])atorg.apache.hadoop.hive.ql.parse.HiveParser.columnNameTypeOrPKOrFK(HiveParser.java:33341)atorg.apac

hadoop - HDFS 加密错误 | root 不允许做 'CREATE_KEY'

我正在使用HDP沙箱,并将RangerKMS安装为KMS服务器。我在沙盒上触发了以下命令。hadoopkeycreatetestKey结果我得到了以下异常。testKeyhasnotbeencreated.org.apache.hadoop.security.authorize.AuthorizationException:User:rootnotallowedtodo'CREATE_KEY'on'testKey'有什么建议吗? 最佳答案 在RangerKMS中为给定策略添加了HDFS用户并提供了适当的权限。对于前。在这里“创建”k

k8s异常Failed to create pod sandbox: rpc error: code=DeadlineExceeded desc=context deadline exceeded

一、背景在服务器测试启动防火墙的影响时,启动防火墙,再关闭防火墙后,本服务器的调度出现错误,导致pod无法启动。如下图所示:二、解决思路查看pod的描述:与kuboard提示的信息一致。查看集群状态:发现也是正常的。猜测:由于之前好使,开关防火墙可能导致网络的问题。导致网络假死。故重启kubelet试试:systemctlrestartkubelet然后重启服务:发现此时,该服务长时间不能启动,会反复尝试删除上一个pod,新建pod。查看其他资料也没有发现什么,最后想了想,决定重启docker试试。systemctlrestartdocker问题直接消失不见,如下:查看日志服务日志,也正常。有

hadoop - 使用参数化位置的 Hive CREATE EXTERNAL TABLE

这按预期工作:DROPTABLEmytable;CREATEEXTERNALTABLEmytable(Dim1STRING,Dim2STRING,Dim3STRING)LOCATION'hdfs:///user/myuser/data';但这不是:setrootpath='hdfs:///user/myuser/data';DROPTABLEmytable;CREATEEXTERNALTABLEmytable(Dim1STRING,Dim2STRING,Dim3STRING)LOCATION'${hiveconf:rootpath}';失败并出现以下错误(Hive0.9.0):FAIL

hadoop - 为什么 Hive "create external table"在 S3 上将数据存储在子文件夹 "-ext-10000"下?

下面的Hive代码突然开始在一个额外的子文件夹下存储数据;DROPTABLEIFEXISTSfolder_test;CREATEEXTERNALTABLEIFNOTEXISTSfolder_test(col1STRING,col2INT,col3INT)ROWFORMATDELIMITEDFIELDSTERMINATEDBY","LOCATION's3n://bucket_name/folder_name';insertoverwritetablefolder_testselectcol1,col2,col3fromdata_tablelimit10;因此,数据不是存储在“s3n://

python轻量规则引擎rule-engine入门与应用实践

rule-engine是一种轻量级、可选类型的表达式语言,具有用于匹配任意Python对象的自定义语法,使用python语言开发。规则引擎表达式用自己的语言编写,在Python中定义为字符串。其语法与Python最相似,但也受到Ruby的一些启发。这种语言的一些特性包括:可选类型提示用正则表达式匹配字符串日期时间数据类型复合数据类型(相当于Python字典、列表和集合类型)数据属性线程安全参考文档可在https://zeroSteiner.github.io/rule-engine/获取。规则语法创建规则的语法基于计算为True(匹配)或False(不匹配)的逻辑表达式。规则支持一小组数据类型

java.lang.NoClassDefFoundError : com/google/common when trying to create a Configuration object 错误

我正在尝试从java中与我的HDFS进行交互。当我尝试创建一个新的Configuration对象时配置conf=newConfiguration();我的应用程序抛出这个错误Exceptioninthread"main"java.lang.NoClassDefFoundError:com/google/common/base/Preconditionsatorg.apache.hadoop.conf.Configuration$DeprecationDelta.(Configuration.java:306)atorg.apache.hadoop.conf.Configuration$

google-app-engine - datastore-connector-latest.jar 的来源在哪里?我可以将其添加为 Maven 依赖项吗?

我从https://cloud.google.com/hadoop/datastore-connector得到连接器但我正在尝试将datastore-connector(以及bigquery-connector)添加为pom中的依赖项...我不知道这是不是可能的。我找不到正确的Artifact和groupId。是否有一些包含datastore-connector的Maven存储库?另外,我正在寻找datastore-connector的源码,但是没有找到。根据CHANGES.txt中的注释,它似乎来自:https://github.com/GoogleCloudPlatform/big

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war