草庐IT

sqoop-sha

全部标签

hadoop - 将vertica数据导入sqoop

我正在将vertica数据注入(inject)mapr集群上的sqoop1。我使用以下查询:sqoopimport-m1--drivercom.vertica.jdbc.Driver--connect"jdbc:vertica://*******:5433/db_name"--password"password"--username"username"--table"schemaName.tableName"--columns"id"--target-dir"/t"--verbose这个查询给我一个错误Causedby:com.vertica.util.ServerException:

hadoop - 使用 Sqoop 将 RDBMS 更新到 HDFS

我正在尝试编写一个sqoop作业来实现以下要求。我有一个XYZ表,每天可能会创建大约100万条新记录和50万条更新。我将有一个EndofdaySqoop作业,它应该将增量数据从XYZ获取到HDFS,还获取更新的记录并将其与HDFS同步。我很乐意实现第1点,但找不到第2点的可行解决方案。请帮忙!!!!谢谢,拉古 最佳答案 对于这种特殊情况,您可以在需要的地方执行增量sqooplastmodified–check-columnlast_modified_col–last-value“2014-10-0315:29:48.66″示例查询请

hadoop - SQOOP 连接参数文件格式

在SqoopforHadoop中,您可以使用参数文件获取连接字符串信息。--connection-param-filefilenameOptionalpropertiesfilethatprovidesconnectionparameters那个文件的格式是什么?比如说我有:jdbc:oracle:thin:@//myhost:1521/mydb在参数文件中应该如何设置? 最佳答案 如果您想提供数据库连接字符串和凭据,请创建一个包含这些详细信息的文件并在您的sqoop命令中使用--options-file创建一个包含以下详细信息的文

hadoop - 如何为 sqoop 1.4.6 启用 oraoop

我正在使用sqoop1.4.6和Oracle11g以及ojdbc6驱动程序。我想知道既然oraoop是内置于sqoop1.4.6那么为什么我在运行sqoop时会在日志中获取此信息>工作。INFOoracle.OraOopManagerFactory:Oracle和Hadoop的数据连接器已禁用。我的工作成功运行,但我知道oraoop连接器比JDBC更快。如何启用oraoop?谢谢 最佳答案 If'--query'argumentisspecifiedinplaceof'--table'parm,Oraoopconnectorisno

sql-server - 在 sqoop-export 中遇到一些问题?

我已经多次将表从Hive导出到SQLServer。我从来没有遇到过这个问题。我使用字段分隔符作为“,”,还在SQLServer中创建了一个表。hadoop@ubuntu:~/sqoop-1.3.0-cdh3u1/bin$./sqoop-export--connect'jdbc:sqlserver://192.168.1.1;username=abcd;password=12345;database=HadoopTest'--tabletmptempmeasurereport--export-dir/user/hive/warehouse/tmptempmeasurereport12/0

hadoop - 从一个部分文件中 Sqoop 到两个表( pig 输出)

我有一个场景,我需要使用Pig加载数据并存储到hdfs中,这个结果(pig输出/部分文件数据)应该加载到两个mysql中的表使用Sqoop。Sqoop可以做到吗?任何其他解决方案。例如如果我有这样一个文件col1col2col3col4................................................Iwanttoexportcol1,col2totabletable1andcol3,col4totabletable2ofsomedatabase提前致谢。 最佳答案 我在下面的解决方案中使用了MySQL

hadoop - sqoop import 说可以找到 Class <tablename>

我在macbook上安装了sqoop1,并做了antpackage。然后,我将HADOOP_HOME和HADOOP_MAPRED_HOME设置为位于/usr/local/hadoop的现有hadoop主目录。当我运行导入命令时bin/sqoopimport--options-file/path/sqoop_params.txt--tablerecipe其中sqoop_params.txt包含用户名密码和postgresurl。它说java.lang.Exception:java.lang.RuntimeException:java.lang.ClassNotFoundException

hadoop - 使用更新 key 的 Sqoop 导出

我必须将HDFS文件导出到MySql。假设我的HDFS文件是:1,abcd,232,efgh,243,ijkl,254,mnop,265,qrst,27然后说我的Mysql数据库模式是:+-----+-----+-------------+|ID|AGE|NAME|+-----+-----+-------------+||||+-----+-----+-------------+当我使用以下Sqoop命令插入时:sqoopexport\--connectjdbc:mysql://localhost/DBNAME\--usernameroot\--passwordroot\--expor

hadoop - Sqoop 导入到 HCatalog/Hive - 表不可见

使用Ambari2.2.2.0安装HDP-2.4.2.0-258我必须导入几个SQLServer模式,这些模式应该可以通过Hive、Pig、MR和任何第三方(将来)访问。我决定导入HCatalog。Sqoop提供了导入到Hive或HCatalog的方法,我想如果我导入到HCatalog,同一个表将可以从HiveCLI、MR和Pig访问(请评估我的假设)。问题:如果直接导入到Hive,该表是否可供Pig、MR使用?如果导入到HCatalog,通过Hive访问需要做什么?是否需要在Hive中预先创建表?如果是,在HCatalog中导入的优势是什么,(我可以直接在Hive中导入)/(在HDF

hadoop - Oracle Hadoop 连接器与 Sqoop

我使用Sqoop将数据从Oracle提取到Hadoop,并且运行良好。在不使用Sqoop上的分区的情况下,将8600万条记录从Oracle转移到Hive表仅用了4分钟。谁能提供有关OracleHadoop连接器的一些详细信息,它的性能会比Sqoop好吗? 最佳答案 大多数连接器的性能接近于您在工作流程的最后有一组MapReduce作业,这将在您的整体性能中发挥主要作用。Oracle提供了一组不同的连接器来访问Hive,您可以查看关于标准解决方案的一个很好的概述,但我怀疑最终您会期望与Sqoop中看到的性能差异显着:https://d