草庐IT

霍夫直线

全部标签

hadoop - 无法使用直线在配置单元表中插入值

我已经使用节俭服务器连接到配置单元。而且,我正在使用直线查询表。我能够看到现有的表,并且能够对这些表执行选择/聚合。我也可以创建表和数据库,但是当我尝试在表中插入值时,出现以下错误:15/08/1013:02:32WARNThriftCLIService:Errorexecutingstatement:org.apache.hive.service.cli.HiveSQLException:org.apache.spark.sql.hive.HiveQl$ParseException:Failedtoparse:**insertintotabletestvalues("kundan")

hadoop - 使用直线在远程 impala 上运行一些 sql 失败

当我使用这个命令时出现错误:$beeline--silent=true-u'jdbc:hive2://[ip]:21050/[database];auth=noSasl'-n'username'-p'password'-e'use[database];createtabletest_table(idint,namestring);'Error:AnalysisException:Couldnotresolvetablereference:'arcaccessdenied'(state=HY000,code=0)如何解决这个问题? 最佳答案

hadoop - 直线中 Tez 作业的作业名称并在 YARN 中查看

我正在使用Beeline并喜欢为TEZ作业设置一个特定的名称,就像我使用mapreduce.job.name对于MapReduce作业。我试过hive.query.name,但它对yarnapplication-list没有任何影响.有人说我们只能在TEZUI中查看名称,但我只能访问YARN。请帮助我。我在Beeline中有一个加载脚本,现在正在运行TEZ作为执行引擎,当我尝试使用yarnapplication-list查看YARN中的事件应用程序时命令,我得到类似HIVE-的信息作为工作名称。我想将其更改为更具可读性。如果执行引擎是SETmapreduce.job.name=myJo

bash - bash脚本中的直线查询

下面是简单的工作直线查询;当我放入脚本时它会运行,但我想为路径放置一个hivevar,我该如何完成这个,因为当我放入我的脚本.properties文件时='path'似乎没有工作。我想这些单引号遗漏了一些东西,我似乎无法让它发挥作用。maxValQuery.hqlWORKING:INSERTOVERWRITEDIRECTORY'/user/tmp/maxVal'selectmax(${hivevar:MAX_VAL_COL})from${hivevar:FACT_TABLE};WANTED:INSERTOVERWRITEDIRECTORY${hivevar:PATH_ON_HDFS}s

hadoop - 使用 SSL 进行直线查询(Hive 配置错误?)

我正在尝试在具有Kerberos的集群上进行直线查询:beeline-u"jdbc:hive2://server_hive.server.lan:10000/default;principal=hive/server_hive.server.lan@COMPTES.RACINE.LOCAL;AuthMech=1;ssl=true;sslTrustStore=/opt/cloudera/security/jks/cm.truststore;trustStorePassword=XXXXX"-e"showdatabases"但是我得到这个错误:Connectingtojdbc:hive2:

hadoop - 使用直线自动登录

我正在使用beeline作为客户端来访问配置单元数据库。每次我使用beeline时,它​​都会询问我连接URL、用户名和密码。有没有办法在配置文件中设置这些参数并自动加载它,而不是为每次登录重新键入它们? 最佳答案 RTFM。HiveServer2Clients>关于Beeline命令行参数alias(command)-Wikipedia>关于alias内置Linuxshell命令因此,如果您的默认shell是Bash,并且您在~/.bashrc配置中添加了该行...aliasduh='/usr/bin/beeline-u"jdbc

java - 无法连接到直线 hive2

Hadoop2.7.3和Hive2.1.0我可以像这样连接到直线!connectjdbc:hive2://但是当我打字的时候!connectjdbc:hive2://hostname:10000/defaultorg.apache.hive.jdbc.HiveDriver或者!connectjdbc:hive2://hostname:10000/default输入用户名和密码后它给我一个错误错误:无法打开与jdbc:hive2://:10000的连接:java.net.ConnectException:连接被拒绝(state=08S01,code=0)在CLI中:which:nohba

hadoop - u0001 分隔符的直线问题

我有一个包含创建表语句的HQL文件。CREATETABLEIFNOTEXISTSemployee(eidint,nameString,salaryString,destinationString)COMMENT'Employeedetails'ROWFORMATDELIMITEDFIELDSTERMINATEDBY'^A'LINESTERMINATEDBY'\n'STOREDASTEXTFILE;表的字段分隔符是/u0001(ctrl-A)。当我使用hive(hive-f)运行这个hql文件时,它工作得很好。但是当我使用beeline运行时,我得到解析异常[cloudera@quick

hadoop - Hiveserver2 无法在直线中打开新 session

我在Ubuntu16.04上运行hive2.1.1、hadoop2.7.3。ps辅助|grephive显示hiveserver2正在运行。我正在尝试使用用户[hive2]和密码[password]通过直线登录到hivesever2。这是我的直线输出:beeline>!connectjdbc:hive2://localhost:10000Connectingtojdbc:hive2://localhost:10000Enterusernameforjdbc:hive2://localhost:10000:Enterpasswordforjdbc:hive2://localhost:100

hadoop - hive ,直线 : Peer indicated failure: GSS initiate failed

我正在使用在Kerberos中添加的帐户启动beeline来测试Sentry:beeline-u"jdbc:hive2://IP:10000/;principal=test_table/domain_name@HADOOP.COM"但是JavaHotSpot(TM)64-BitServerVMwarning:ignoringoptionMaxPermSize=512M;supportwasremovedin8.0JavaHotSpot(TM)64-BitServerVMwarning:ignoringoptionMaxPermSize=512M;supportwasremovedin8