草庐IT

sqoop-sha

全部标签

java - CDH4、Sqoop2 和 JDBC 驱动程序 : no suitable driver found

我正在尝试使用Sqoop2将数据从MySQL数据库导入HDFS,基本上遵循说明here.但是,由于找不到合适的驱动程序,Sqoop服务器无法连接到MySQL数据库。设置:这是我的设置的一些背景:Hadoop集群:我有一个运行CDH4.4.0的三机Hadoop集群。Sqoop2是通过ClouderaManager配置的,与Namenode运行在同一台机器上。我正在Windows机器上开发,这也是我的MySQL数据库所在的位置。Hadoop集群是一组三台Ubuntu服务器机器。MySQL数据库:我的Windows机器上运行着一个MySQL数据库,我已经检查过可以从我的Hadoop集群中的每

sql-server - Sqoop 导出到 Sql Server VS 批量插入到 SQL Server

我有一个关于ApacheSqoop的独特查询。我已使用apacheSqoop导入工具将数据导入到我的HDFS文件中。接下来,。我需要使用Hadoop(Sqoop)将数据放回另一个数据库(基本上我正在执行从一个数据库供应商到另一个数据库供应商的数据传输)。PutdataintoSqlServer,有两个选项。1)使用Sqoop导出工具连接到我的RDBMS(SQL服务器)并直接导出数据。2)使用copyToLocal命令将HDFS数据文件(CSV格式)复制到我的本地机器,然后对这些CSV文件执行BCP(或批量插入查询)以将数据放入SQL服务器数据库。我想了解哪种方法是完美的(或者更确切地说

csv - 使用逗号分隔值和 .csv 或 .txt 文件格式将 Hive 输出到 s3。使用 sqoop 从 hive 导出到 s3 的替代方法也可以使用

我一直在尝试使用hive输出到s3。我在这方面取得了成功,但结果输出不是逗号分隔的,而是有一个分隔符,例如^A我想。我还致力于使用sqoop将数据从s3导入和导出到psql,但我无法在hive上执行此操作,即使我得到了解决方案也可以。我试过的是sethive.io.output.fileformat=CSVTextFile;INSERTOVERWRITEDIRECTORY"s3n://akshayhazari/results"select*frombooks;这是工作:Totaljobs=3LaunchingJob1outof3Numberofreducetasksissetto0si

mysql - Sqoop:增量导入问题

我有一个要求,其中我需要从mysql中导入一个表以增量方式配置单元,并且在这样做时遇到了问题。到目前为止,这是我尝试过的:我已经创建了一个作业来使用下面提到的查询导入表。/sqoop作业--createtest2--import--connectjdbc:mysql://URL--usernameusername--passwordpassword--tablemysqlTablename--hive-import--hive-overwrite--direct--incrementallastmodified--check-columnlast_modified_time--last

java - Sqoop2 找不到 AuditLoggerManager

我遵循了“说明”here(文档不是很好!)。基本上,我在sqoop.properties和catalina.properties中设置了一堆路径。但是在sqoop.sh服务器启动时,日志显示找不到文件审计记录器类。我复制了一堆jar文件,但仍然没有成功!SEVERE:Exceptionsendingcontextinitializedeventtolistenerinstanceofclassorg.apache.sqoop.server.ServerInitializerjava.lang.RuntimeException:Failureinserverinitializationa

hadoop - Sqoop 创建配置单元表错误-运行创建表作业时遇到 IOException

我在Centos7机器上运行sqoop,该机器已经安装了hadoop/mapreduce和hive。我从教程中读到,当将数据从RDBMS(在我的例子中是SQLServer)导入HDFS时,我需要运行下一个命令:sqoopimport-Dorg.apache.sqoop.splitter.allow_text_splitter=true--connect'jdbc:sqlserver://hostname;database=databasename'--usernameadmin--passwordadmin123--tabletableA这一步一切正常。下一步是创建一个与RDBMS(在

oracle - Sqoop导入作业报错org.kitesdk.data.ValidationException for Oracle

Oracle11g的Sqoop导入作业因错误而失败ERRORsqoop.Sqoop:GotexceptionrunningSqoop:org.kitesdk.data.ValidationException:Datasetname81fdfb8245ab4898a719d4dda39e23f9_C46010.HISTCONTACTisnotalphanumeric(plus'_')完整的命令如下:$sqoopjob--createingest_amsp_histcontact--import--connect"jdbc:oracle:thin:@:/"--username"c46010

hadoop - 克伯罗斯 |云时代 | Krb异常 : Encryption type AES256 CTS mode with HMAC SHA1-96

我一直在尝试为CDH4.5设置Kerberos,这是使用ClouderaManager安装程序设置的。说明来自以下链接:http://www.cloudera.com/content/cloudera-content/cloudera-docs/CM4Ent/4.5.2/Configuring-Hadoop-Security-with-Cloudera-Manager/cmeechs_topic_4.html设置和KDC后,我将Java6文件的JCE策略复制到以下位置:/usr/java/jdk1.6.0_31/lib/security/以下是我的“/var/kerberos/krb5

mysql - 无法使用 Sqoop 将数据从 Hive 导出到 MySQL

我正在使用Sqoop从以Hive格式存储的HDFS将处理后的数据导出到MySQL服务器。代码简单明了,但无论我做什么,Sqoop都无法正确识别字段分隔符。可能是什么问题?这是我在Hive中的表定义hive>showcreatetabledatabase.weblog_ag;OKCREATETABLEdatabase.weblog_ag(visitor_idstring,timearray,urlarray,client_timearray,resolutionarray,browserarray,osarray,devicetypearray,devicemodelarray,ipin

apache - Apache Sqoop 真的是 Apache Hadoop 所必需的吗?有没有其他方法可以使用数据库输入在 hadoop 中进行处理?

众所周知,hadoop使用MapReduce概念。但是将数据库拆分为数据block在逻辑上是不可能的。为此,我们使用Apachesqoop将数据库表的内容导入HDFS。我的问题是-将sqoop与Hadoop结合使用真的有那么大优势吗?如果是,谁能用一个实时示例向我解释,在这个示例中,hadoop已被实现以与数据库上的MapReduce一起工作?如果我知道MapReduce在数据库相关处理中是如何实现的,那就太好了。提前致谢。 最佳答案 Sqoop在Hadoop和MySQL之间导入和导出数据方面带来了很多简化。但是如果我们看一下它支持