草庐IT

Sqoop-Export

全部标签

hadoop - 如何在使用 sqoop 摄取数据时屏蔽数据

我正在使用sqoop提取数据。有什么方法可以屏蔽sqoop中的任何特定列或修改每个单元格。例如:creditcardinfo7888-3333-2222-10021111-2342-1235-20902331-2131-2222-3421我希望数据在摄取后是这样的:creditcardinfoXXXX-XXXX-XXXX-1002XXXX-XXXX-XXXX-2090XXXX-XXXX-XXXX-3421或creditcardinfo100220903421在sqoop中有可能吗?我试图找出答案,但无法获得太多信息。 最佳答案 最简

sql-server - Sqoop & Hadoop - 如何在 lastmodified 模式下加入/合并 Sqoop 导入的旧数据和新数据?

背景:我在SQL服务器上有一个具有以下架构的表。可以更新现有行,新行也会添加到该表中。unique_id|user_id|last_login_date|count123-111|111|2016-06-1819:07:00.0|180124-100|100|2016-06-0210:27:00.0|50我正在使用Sqoop在lastmodified模式下添加增量更新。我的--check-column参数是last_login_date列。在我的第一次运行中,我将以上两条记录输入到Hadoop中-我们称其为当前数据。我注意到最后一个值(第一次导入的检查列的最大值)是2016-06-18

hadoop - 从配置单元到 teradata 的 Sqoop 导出不适用于时间戳字段

我正在尝试将一个文件从配置单元中导出一个文件,其中一个字段作为时间戳('2016-05-2102:00:00')到teradata。teradata中的数据类型是timestamp(0),可以期待类似的格式。当我尝试使用sqoop导出它时,它给出了字符串到时间戳的转换错误。任何解决方法都将大有帮助。注意:String到teradata中的Varchar(256)工作。String到teradata中的timestamp(0)失败。Timestampinhivetotimestamp(0)interadata失败。日志:16/07/1212:24:20INFOmapreduce.Job:

hadoop - 我们如何使用 SQoop 对从 RDBMS 迁移到 HDFS 的数据进行测试?

测试人员如何测试数据是否从RDBMS移动到HDFS?请仅从测试角度解释。将数据从RDBMS移动到HDFS和将数据从RDBMS移动到HIVE之间有什么区别?据我所知,HIVE不是数据库,那么为什么要将数据移动到HIVE? 最佳答案 话题有点大。我会尽量用通俗易懂的方式回答。HowatestertestifthedataismovedfromRDBMStoHDFS?Pleaseexplainonlyfromtestingperspective.这就是我们过去所做的。一旦迁移事件发生。我们编写了一堆测试脚本,其中我们使用大量随机记录轮询R

hadoop - Sqoop 导入错误 : org. apache.hadoop.security.AccessControlException: Permission denied by sticky bit

我在Rhel7远程服务器中有一个单节点ClouderaCluster(CDH5.16)。我已经使用软件包安装了CDH。当我运行sqoop导入作业时,出现以下错误:Warning:/usr/lib/sqoop/../accumulodoesnotexist!Accumuloimportswillfail.Pleaseset$ACCUMULO_HOMEtotherootofyourAccumuloinstallation.19/06/0415:49:31INFOsqoop.Sqoop:RunningSqoopversion:1.4.6-cdh5.16.119/06/0415:49:31WA

hadoop - (Sqoop-import) 错误 tool.ImportTool : Encountered IOException running import job: java. io.IOException:Hive 以状态 9 退出

当我输入命令时:./sqoop-import--connectjdbc:mysql://localhost/sqoop2-tablesqeep2-m1-hive-import当执行这条命令时:hadoop@dewi:/opt/sqoop/bin$./sqoop-import--connectjdbc:mysql://localhost/sqoop2-tablesqeep2-m1-hive-import12/06/2010:00:44INFOtool.BaseSqoopTool:UsingHive-specificdelimitersforoutput.Youcanoverride12/

jdbc - 如何使用自定义 JDBC 驱动程序运行 Sqoop?

如果我为oraclethin提供(--connect/--user/--password),我可以在不提供--driver参数的情况下运行Sqoop。但我需要使用在我的项目中使用的自定义JDBC驱动程序(它正确实现java.sql.Driver接口(interface))而不是oracle.jdbc.OracleDriver来运行它。我无法通过简单地用--driver参数证明它来让它工作。和thissuggestion一点帮助也没有。如何将Sqoop与自定义数据库访问驱动程序一起使用?如何克服我遇到的错误?如果它与连接管理器有关,有人可以告诉我应该指定哪个连接管理器吗?谢谢!这是我实际

hadoop - Sqoop 导入失败,UnsupportedClassVersionError

我正在尝试使用sqoop将表从MySQL导入HDFS。使用的命令行是,sqoopimport--connectjdbc:mysql://192.168.10.452/qw_key_test--usernameqw-P--split-byqw_id-m10--target-dir/user/perf/qwperf/sqoops--verbose--tableqw_perf_store_key映射器因Unsupportedversion失败,如下所示。2013-05-2217:46:24,165WARNmapreduce.Counters:Grouporg.apache.hadoop.ma

hadoop - Sqoop 导入 Hive 不显示在显示表中

我遇到了同样的问题。发出导入命令后,我可以在/user/hive/warehouse目录中找到它。但是当我在配置单元shell中发出“显示表”命令时,没有返回任何内容。我的导入命令是这样的:./sqoopimport--connect'jdbc:sqlserver://192.168.1.1:1433;database=dbname;user=sa;password=password'-tablecustomers--create-hive-table--hive-tablemytable-target-dir/user/hive/warehouse/imports/-as-textf

hadoop - Oozie shell 操作 - 运行 sqoop 命令并需要记录详细信息

我正在使用Oozie、shellaction和sqoop。我正在使用oozie来运行许多sqoop命令。我设置了一个shell操作,并在该shell中放置了许多sqoop命令。现在,shellAction被触发,甚至sqoop也在发生。但是,sqoop没有正确的日志记录。所以我将sqoop命令重定向到日志文件。我只看到以下几行。我的代码如下。在shell脚本中:*sqoopimport--connectjdbc:mysql://server:3306/test--verbose--usernameroot--passwordPassword--append--tablePeople--