草庐IT

Sqoop-Export

全部标签

sql-server - Sqoop 无法从 Sql Server 导入数据

sqoopimport--driver="com.microsoft.jdbc.sqlserver.SQLServerDriver"--connect="jdbc:microsoft:sqlserver://**.**.**.**:1433/DB_Schema;IntegratedSecurity=TRUE"--tabledbo.TABLE_NAME错误一:--driverissettoanexplicitdriverhoweverappropriateconnectionmanagerisnotbeingset(via--connection-manager).Sqoopisgoin

hadoop - sqoop 在导入时如何处理更新的行?

如果Oracle(或任何RDBMS)中有一个表包含每天刷新的数据。例子:1234,Raj,Kolkata,1000,09092015假设,我今天使用标准sqoop导入导入这一行,并以平面文件的形式存储在HDFS中。第二天,该行从源表中删除。但是如果在7天后更新了相同的记录(比如sal字段1000更新为2000)。如果我再次运行sqoop查询,它将如何处理数据以及如何存储?是否会有相同记录的两个条目或将更新较新的值?会不会记录会被这个取代吗? 最佳答案 如果您执行incrementalimports在Sqoop中,您可以通过使用参数-

hadoop - Sqoop 函数 '--map-column-hive' 被忽略

我正在尝试将文件作为parquet导入到配置单元中,而--map-column-hivecolumn_name=timestamp被忽略。column_name列最初是sql中的datetime类型,它在parquet中将其转换为bigint。我想通过sqoop将它转换为时间戳格式,但它不起作用。sqoopimport\--tabletable_name\--drivercom.microsoft.sqlserver.jdbc.SQLServerDriver\--connectjdbc:sqlserver://servername\--usernameuser--passwordpw\

hadoop - 为什么 sqoop 尝试使用 SELECT WITH GRANT?

我正在尝试从teradata数据库进行sqoop。我使用了以下调用:sqoopimport--connectjdbc:teradata://>/database=>,LOGMECH=>--connection-manager"com.cloudera.connector.teradata.TeradataManager"--username>-P--target-dir>--query'SELECT*FROM>.>WHERE$CONDITIONSsample10'--split-by>--hive-import--hive-database>--hive-table>出现以下错误:16

hadoop - 为什么 sqoop 将导入中的 DECIMAL 类型从 Teradata 映射到 DOUBLE?

我有Sqoop版本:1.4.6当将数据从Teradata导入Hive时,我发现DECIMAL类型被转换为DOUBLE。我想知道为什么Hive具有完全等效的数据类型。 最佳答案 这是因为他们为所有RDBMS通用地编写了它。DECIMAL映射为DOUBLE。sourcecode的有用部分:publicstaticStringtoHiveType(intsqlType){switch(sqlType){caseTypes.INTEGER:caseTypes.SMALLINT:return"INT";caseTypes.VARCHAR:ca

hadoop - 是否可以在 sqoop 类型映射中指定 DECIMAL 比例和精度?

我正在尝试通过sqoop选项指定列类型映射:--map-column-hive>=DECIMAL\(15,2\)但这会返回错误:Columnmappingshouldbetheformkey=value[,key=value]*如果我删除小数位数和精度值(以及括号),那会起作用,但它默认为DECIMAL(10,0)。我需要能够指定实际值。我正在运行Sqoop版本:1.4.6 最佳答案 Sqoop1.4.7中修复了这个错误修复并不简单。例如,对于col3=decimal(1,1)列,需要编写col3=decimal(1%2C1)检查S

hadoop - 除了SQOOP之外,还有什么方法可以从RDBMS传输到HDFS吗?

除了使用sqoop将RDBMS传输到HDFS之外,我想要其他方法请给我线索请任何人给我解释一下,hive和sqoop之间的关系是什么? 最佳答案 添加到devツ的答案中,您还有一个名为streamsets数据收集器的工具,它可以帮助您通过创建JDBC连接从mysql获取数据到HDFS。 关于hadoop-除了SQOOP之外,还有什么方法可以从RDBMS传输到HDFS吗?,我们在StackOverflow上找到一个类似的问题: https://stackover

mysql - 使用任何 sqoop 命令时出现 Sqoop 错误

我正在使用hadoop2.6.0,现在我正在尝试sqoop-1.4.5.bin__hadoop-2.0.4-alpha.tar.gz。我正在使用sqoop版本sqoopversion2016-10-1916:11:21,722[myid:]-INFO[main:Sqoop@92]-RunningSqoopversion:1.4.5Sqoop1.4.5但如果我正在尝试任何sqoop命令,它会给出以下异常,sqooplist-tables--connectjdbc:mysql://localhost/test--usernameroot--passwordhadoopExceptionin

performance - sqoop 导出性能问题

我在通过sqoop导出将数据从Hive导出到Netezza时遇到性能问题。有没有办法提高sqoop的性能?详情如下:columnspresentinthetable(sourceanddestination):282formatoffile:textnoofsplits:99datatobeexported:1000MB 最佳答案 在sqoopexport命令中使用-batch。还有要进一步改善数据加载,您可以使用--direct。限制:此模式不支持二进制和大对象类型。 关于perfor

postgresql - Microsoft Azure HDInsight Ambari Sqoop 和 Postgres

尝试将数据从postgres导入MicrosoftAzureHDInsigt上的hdfs。如果列出dbs,现在我从一个非常简单的命令开始sqooplist-databases--connectjdbc.postgresql://xx.xxx.xxx.xxx:yyyy--usernamemyuser--passwordmypassword我得到以下错误ERRORtool.BaseSqoopTool:Goterrorcreatingdatabasemanager:java.io.IOException:Nomanagerforconnectstring:jdbc.postgresql://