草庐IT

Sqoop-Export

全部标签

sql - 使用Sqoop导入hadoop时如何识别sql server中删除的记录

当使用Sqoop从sqlserver或任何RDBMS数据库导入数据到hadoop时,我们可以使用增量追加或上次修改或一些自由形式查询来获取新追加的记录或修改的记录。无论如何我们可以识别已删除的记录吗?考虑到当记录被删除时,它不会存在于sql表中。一种解决方法是使用Sqoop加载完整表并与hive中的先前表进行比较。还有其他最好的方法吗? 最佳答案 不,您不能使用sqoop获取已删除的记录。更好的解决方法可能是:在您的SQLServer表中创建一个boolean字段status(默认true)。每当您需要删除该记录时,不要删除,只需更

hadoop - 非 UTF-8 字符的 java.io.charconversionException 的 Sqoop 错误

我试图通过sqoop从db2.ibm导入数据,但遇到了错误java.io.charconversionException:SQLexceptioninnextKeyValueAndcausedby[jcc][t4][1065].....Caughtjava.io.CharConversionExceptionERRORCODE=-4220,SQLSTATE=null我试过了sqoopimport--drivercom.ibm.db2.jcc.DB2Driver--connectjdbc:db2://host:port/db--verbosetable.views_data-m1--ta

hadoop - Sqoop如何导入表table1, table2, table3?

一位雇主问如何在单数据库和多数据库中导入表1和表2、表3? 最佳答案 你可以试试:多个表:尝试使用“import-all-tables”和逗号分隔的“exclude-tables”选项:sqoopimport-all-tables--connectjdbc:mysql://localhost/sqoop--usernameroot--passwordhadoop--target-dir'/sqoop'--exclude-tablestable1,table2多表:在Sqoop1.99中有一个用于执行自定义SQL查询的选项-您可以检查

mysql - --direct 模式如何在 sqoop 中工作?

sqoop使用表主键或--split-by从RDBMS转移到HDFS,我认为映射器的默认数量是四个。然而,通过--direct不使用映射器,传输速度会更快。我的问题是,如果没有使用映射器,那么Sqoop如何处理Hadoop框架中的传输? 最佳答案 根据sqoopdocs,MySQLDirectConnectorallowsfasterimportandexportto/fromMySQLusingmysqldumpandmysqlimporttoolsfunctionalityinsteadofSQLselectsandinsert

mysql - RDBMS MySQL 中的 sqoop 导出更新表记录

因此,我尝试在MySQL的RDBMS表中执行更新。问题是这个更新来self的HDFS中的一个文件,尽管在MySQL中,当我更新记录时,表计数带有主键,结果集在描述中出现了重复值,而不是用新记录更新以前的记录key。在下面的示例中,记录Financial应该只出现一次且值为9,但我有两条记录,第一条记录的键值为2,第二条记录的键值为9。我的Sqoop代码:sqoopexport--connectjdbc:mysql://xxxxxx/retail_export--usernamexxxxx--passwordxxxxx\--tableexport_sqoop_dept--update-k

hadoop - 从命令行获取 oozie sqoop 操作的日志

我有一个带有sqoop操作的oozie工作流,我希望从命令行获取这些sqoop操作的日志(标准输出)。这是我认为可行的方法:oozie作业-info0000002-170819062150496-oozie-oozi-W打印Action的job_ids:------------------------------------------------------------------------------------------------------------------------------------0000002-170819062150496-oozie-oozi-W@

hadoop - 使用 sqoop 将数据从 Teradata 迁移到 Hive

我正在尝试使用sqoop将数据从teradata迁移到hive,但在teradata表中有一些字段具有graphic和vargraphic等数据类型,因此我们如何在hive中处理这些类型。 最佳答案 通过查看graphic&vargraphic的文档datatype明明是n个双字节字符的定长图形串和变长图形串。因此您可以尝试使用sqoop在Hive中映射这些列map-column-hive争论像这样:--map-column-hivegraphic_column1=STRING,vargraphic_column2=STRING

sql-server - 使用 sqoop 将表从 Windows SQL Server 2012 导入到 hadoop

我尝试使用以下代码将表从RDBMS(Windows-SQLServer2012)导入HDFS。但我收到一个错误。我可以成功连接它。sqoopimport--connect"jdbc:sqlserver://192.1x8.xx.1:14xx;database=AdventureWorks2012;username=hadox;password=hadxx"--tableProduction.Product--hive-import我知道错误是由表名中的点(.)引起的。我从链接sqooptoimportdatatohive获得了该信息.我不明白该链接中的任何详细信息。有人可以帮忙吗?提前

mysql - sqoop import 为正确的 sql 查询提供了错误的结果

我在MySQL中使用如下查询。我得到了我想要的结果。selectTABLE_NAME,count(column_name)asno_of_columnsfrominformation_schema.columnswhereTABLE_SCHEMA='testing'andTABLE_NAMENOTREGEXP'temp|bkup|RemoveMe|test'groupbyTABLE_NAME当我在sqoop导入语句中使用相同的查询时,结果不同。sqoop导入语句如下。sqoopimport--connectjdbc:mysql://xxxxxx:3306/information_sch

hadoop - Sqoop 中的并发

我已阅读文档,其中建议在edgenode上安装sqoop,原因有很多,并且每个映射器都建立了与源数据库的连接。我的问题是所有4个连接都是从edgenode建立的还是sqoop-clientinedgenode只是创建某种驱动程序来监视数据节点连接到数据库时的摄取,获取数据(部分)并在本地拆分它然后放入HDFS. 最佳答案 Sqoop是Mapreduce的包装器,用于执行导入导出操作。Mappers将在您的集群中运行,而sqoop客户端将运行边缘节点。每个映射器都会打开一个到您的数据库的连接。您的映射器使用哪些行由客户端在提交作业时决