草庐IT

Sqoop-Export

全部标签

hadoop - Sqoop import-all-table to hive 在特定数据库中失败

我正在执行下面的sqoop命令sqoopimport-all-tables-m1\--connect"jdbc:mysql://nn01.itversity.com:3306/retail_db"\--username=retail_dba\--password=itversity\--hive-import\--hive-home/apps/hive/warehouse\--hive-overwrite\--hive-databasegrv_sqoop_import\--create-hive-table\--compress\--compression-codecorg.apach

hadoop - sqoop 从 hdfs 导出到 mysql 失败,需要帮助来转义字符

我在hdfs中有一个文件并将其导出到sqoop表。请在下面找到日志详细信息:Causedby:java.lang.RuntimeException:Can'tparseinputdata:'characters'attags.__loadFromFields(tags.java:335)attags.parse(tags.java:268)atorg.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:89)...10moresqoop导出命令sqoopexport\--connect"**********

hadoop - 执行 sqoop eval 命令时出错

我正在从主目录执行sqoop命令。这个sqoop命令正在连接sybaseSqooplist-tables命令运行良好。我能够看到表格列表sqooplist-tables\--connectjdbc:sybase:Tds:omegagold82unsQ:7000/ServiceName=preprod\--usernameomega123\--passwordomega1234878\--drivercom.sybase.jdbc4.jdbc.SybDriver\但是当我执行下面的sqoopeval命令时它会抛出下面的错误sqoopeval\--connectjdbc:sybase:Td

hadoop - sqoop 导出通过 oozie 失败

我正在尝试通过sqoop从hdfs将数据导出到mysql。我能够通过shell运行sqoop,并且运行良好。但是当我通过oozie调用时。它出现以下错误并失败。我还包括jar。没有描述性日志sqoop脚本:export--connectjdbc:mysql://localhost/bigdata--usernameroot--passwordcloudera--verbose--tableAGGREGATED_METRICS--input-fields-terminated-by'\0001'--export-dir/bigdata/aggregated_metrics错误:Launc

mysql - 为什么 sqoop 在从配置单元导出到 mysql 期间在数字列的 NumberFormatException 上失败

我有简单的配置单元查询INSERTOVERWRITEDIRECTORY'/tmp/test'SELECTflight,SUM(CASEWHENev=2THEN1ELSE0END)ASreqfromdata_tablegroupbyflight;输出看起来不错(在编辑器中用^A分隔)两个数字列。我已经创建了mysql表createtablehive_table(flint,evsint);最后想用sqoop把hdfs的数据导出到mysqlsqoopexport--connectjdbc:mysql://mysqlhost/dwh--usernameuser--passwordpasswo

sql-server - Oozie Sqoop 作业

我正在尝试将sqoop作业作为oozie操作运行。我将MySQL作为jobtracker节点上的元存储。我在某处读到ooziesqoop无法通过导入创建配置单元表。所以我试图将数据转储到hdfs中。现在还是这样吗?我检查了共享库。我正在尝试从MSSQL数据库中获取Sqoop。当我运行不需要来自shell的元存储的sqoop命令时,它可以工作。sqoopimport--connect'jdbc:sqlserver://host;username=sqoopimport;password=password;database=db1'--tablet1--target-dir/user/ro

hadoop - Sqoop 导出作业的 sqoop.export.records.per.statement 是否有限制?

有谁知道Sqoop批量导出作业的sqoop.export.records.per.statement的值是否有限制?我有非常大的数据,例如200,000,000行数据要从Impala导出到Vertica。我将得到[Vertica][VJDBC](5065)ERROR:ToomanyROScontainersexistforthefollowingprojections如果recordsperstatement设置得太低,或者java.lang.OutOfMemoryError:GC如果每个语句的记录数设置得太高,则超出开销限制。有人知道如何解决这个问题吗?谢谢!

hadoop - Sqoop 作业无法使用 Hadoop Credential API

我已将我的数据库密码存储在HadoopCredentialProvider中。从终端导入Sqoop工作正常,成功从CredentialProvider获取密码。sqoopimport-Dhadoop.security.credential.provider.path=jceks://hdfs/user/vijay/myPassword.jceks--tablemyTable-m1--target-dir/user/vijay/output--delete-target-dir--usernamevijay--password-aliasdb2-dev-password但是当我尝试设置为

oracle - 如果我们在sqoop中使用6个mapper从oracle中导入数据,那么sqoop和source之间会建立多少个connection

如果我们在sqoop中使用6个mapper从Oracle导入数据,那么sqoop和source之间会建立多少个connection。是单个连接还是每个映射器有6个连接。 最佳答案 根据sqoopdocs:Likewise,donotincreasethedegreeofparallismhigherthanthatwhichyourdatabasecanreasonablysupport.Connecting100concurrentclientstoyourdatabasemayincreasetheloadonthedataba

shell - 我们如何使用 linux 脚本自动执行 Sqoop 中从数据库到 HBase 的增量导入

使用sqoop作业,我们可以使用--lastval对HBase进行增量加载但是我们如何用shell脚本做同样的事情,以及我们如何在自动化脚本时获得--lastval?我的意思是如何存储--lastval以及如何将它传递给下一次提前感谢您的帮助!! 最佳答案 howtostorethe--lastvalandhowtopassittothenexttime?定义--lastval作为linux或unix中的别名或导出变量。可以从自动化脚本重试onceloadisfinishthenchangeittorecentvalue,bycap