草庐IT

jdbc-Statement

全部标签

hadoop - Hive 查询在 Hive 客户端和 JDBC 中的执行方式不同

我通过Hive客户端、Java程序JDBC和直线执行的以下查询。SELECT*FROMTABLE_ONEASt1JOINTABLE_TWOt2ONt2.p_id=t1.p_idANDt2.p_n_id=t1.p_n_idANDt2.d_id=t1.d_idJOINTABLE_THREEt3ONt3.d_m_id=t1.d_m_idANDt3.d_p_id=t1.d_p_idJOINTABLE_FOURt4ONt4.c_id=t1.c_idJOINTABLE_FIVEt5ONt5.a_n_id=t1.a_n_idJOINTABLE_SIXt6ONt6.d_p_p_s_id=t1.d_p_

关于对SQL注入问题与SQL执行过程的理解与简述(基于JDBC)

【版权声明】未经博主同意,谢绝转载!(请尊重原创,博主保留追究权)https://www.cnblogs.com/cnb-yuchen/p/17955065出自【进步*于辰的博客】参考笔记一,P52.2/3。1、SQL注入大家看这条SQL语句:Stringsql="select*fromuserswhereusername='" +name++"'andpassword='"+pass+"'";这是一条由字符串拼接而成的登录SQL语句。当用户名、密码都匹配时,才能查询出用户信息,进而登录成功。用户名和密码由表单输入,假设一种情况:name="yc"pass="123'or1=1"那拼接出的

关于对SQL注入问题与SQL执行过程的理解与简述(基于JDBC)

【版权声明】未经博主同意,谢绝转载!(请尊重原创,博主保留追究权)https://www.cnblogs.com/cnb-yuchen/p/17955065出自【进步*于辰的博客】参考笔记一,P52.2/3。1、SQL注入大家看这条SQL语句:Stringsql="select*fromuserswhereusername='" +name++"'andpassword='"+pass+"'";这是一条由字符串拼接而成的登录SQL语句。当用户名、密码都匹配时,才能查询出用户信息,进而登录成功。用户名和密码由表单输入,假设一种情况:name="yc"pass="123'or1=1"那拼接出的

hadoop - 配置单元:dfs copyToLocal 给出 "org.apache.hive.service.cli.HiveSQLException: Error while processing statement: null"

我正在尝试从.hql文件执行“copyToLocal”,如下所示:dfs-copyToLocalhdfs://nameservice1/HDFS_FOLDER1/HDFS_FOLDER2/file_name.dat/LOCAL_FOLDER1/LOCAL_FOLDER2/;但是我得到了下面提到的异常:Error:Errorwhileprocessingstatement:null(state=,code=1)org.apache.hive.service.cli.HiveSQLException:Errorwhileprocessingstatement:nullatorg.apach

java - 无法使用 JDBC 连接到 Phoenix

我有一个使用HBase和Phoenix设置的Hadoop集群,我正在尝试使用JDBC连接到Phoenix,但我有点无法成功连接。我想使用JDBC通过Python3.x进行连接,但为了简单的测试目的,我在Eclipse中使用Java设置了一个连接。我最初使用Python的第3方库(phoenixdb),但我开始使用这个库时出现超时(随着我的数据库的增长)。在此之后,我更改了我的hbase-site.xml设置中的一些变量,以避免超时,但出于某种原因,这并没有解决我使用这个第3方库的问题。所以我尝试转向JDBC和Java项目-至少是为了测试。我有以下Java代码:publicclassPh

hadoop - 配置单元错误 : compiling statement: FAILED: ParseException line 15:0 missing EOF at 'collection' near ''\n''

我是hive的新手,我正在创建一个具有以下属性的表,CREATEEXTERNALTABLEEXTTBL_Transactions(TRANSACTION_IDvarchar(70)COMMENT'UniqueID,`PrimaryKey',DEFINITION_IDvarchar(70)COMMENT'Definition,NullAllowed',USER_IDvarchar(70)COMMENT'Contactid,ForeignKey',PURCHASE_DATETIMETimestampCOMMENT'Saveddattime,NullAllowed',PURCHASE_AMO

hadoop - phoenix jdbc 不工作,没有异常并卡住

我是phoenix的新手,hbase.hbase表和phoenixView运行良好,我可以通过phoenix获取数据。当我访问jdbc到phoenix时,它卡住了。importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.ResultSet;importjava.sql.SQLException;importjava.sql.Statement;publicclassPhoenix{privatestaticStringdriver="org.apache.phoenix.jdbc.PhoenixDriv

apache-spark - 来自边缘节点 Jupyter 笔记本的 spark jdbc 连接

我需要使用jdbc连接到Oracle数据库来创建数据框。我正在使用edgenode的Jupyternotebook来进行此连接。Spark在Jupyternotebook中以客户端模式运行。数据库主机和端口没有来自边缘节点的连接,但它是从数据节点打开的。但是当我尝试创建数据框时,由于“连接超时”错误而失败。正常吗?我认为它正在尝试从无法建立连接的边缘节点建立连接?我怎样才能确保连接是从执行者那里发生的(据我所知,这在理论上应该是这样的)。 最佳答案 这是“正常”的。一般来说,驱动程序节点(在您的情况下是边缘节点)必须具有与任何工作节

jdbc - 使用CDH4+Cloudera Manager时JDBC驱动放在哪里?

我试图让Sqoop2(CDH4.4.0)识别JDBCjar,但无论我把它们放在哪里,它们似乎都没有被识别。我听从了建议:here,here,并问了一个类似的问题here.有人可以对此提供明确的答案吗? 最佳答案 我强烈建议您遵循Hadoop发行版及其相关版本的官方安装指南。看来您使用的是CDH4.4.0,但正在查看CDH4.2.1安装说明。而在CDH4.2.1中,JDBC驱动程序jar文件应在/usr/lib/sqoop2中,自CDH4.3.0起,它们应在/var/lib/sqoop2中(documentation)。

java - JDBC hive 连接字符串中使用的端口号在哪里定义?

我刚刚开始Hadoop和Hive编程,并且编写了一个Java代码,它连接到一个derbyMetastore,并提供正确的输出。我定义的连接字符串是:jdbc:hive2://localhost:10000/default该程序运行良好,并为我提供了所需的输出。但是我想知道这个端口号10000是在哪里定义的,以及如果需要如何更改这个端口号。 最佳答案 您可以在Hive安装目录下找到所有与Hive相关的配置详细信息。文件名为hive-site.xml就像在我的例子中文件存在于此路径下/usr/hdp/current/hive-serve