草庐IT

Sqoop-Export

全部标签

hadoop - sqoop-import 失败,hive 无法显示表

我尝试使用Hadoop将数据库从mysql导入到Hive,并使用来自sqoop的“--hiveimport”命令自动创建表并将数据加载到hive。我使用下面的命令通过sqoop执行导入./sqoop-import--connectjdbc:mysql://localhost/paman-tablebibis-m1-hive-import当执行这条命令时:hadoop@dewi:/opt/sqoop/bin$./sqoop-import--connectjdbc:mysql://localhost/paman-tablebibis-m1-hive-import12/06/1116:08:

hadoop - 我无法通过 sqoop 将表从我的 sql server 导入到 hive

当我传递命令时:$sqoopcreate-hive-table--connect'jdbc:sqlserver://10.100.0.18:1433;username=cloud;password=cloud123;database=hadoop'--tablecluster出现了一些错误和警告,最后它说,无法启动数据库'/var/lib/hive/metastore/metastore_db',请参阅下一个异常以获取详细信息[再次显示导入错误列表]最后它说hive以satus9退出这里有什么问题?我是sqoop和hive的新手。请任何人帮助我。 最佳答案

hadoop - com.cloudera.sqoop.SqoopOptions 与 org.apache.sqoop.SqoopOptions 之间有什么区别吗?

Iamnewinsqoop.Actualiamusedsqoopimport&exportthroughcommandlinearguments.Butnowiamtryingtoimplmentwithjava.IgotcompiletimeerrorwhencallingexpTool.run(sqoopoptions)whenusingtheorg.apache.sqoop.SqoopOptionspackage.Ifiamtryingtouseclouderapackageinsteadofapachesqooppackage.thereisnocompiletimeexecp

hadoop - Sqoop 导出到 RDBMS .lzo .gz 文件超过 64 MB 加载重复

使用sqoop1.3尝试将hdfs输出导出到mysql表加载大小超过300MB的未压缩文件时一切正常但是在加载大小为75MB或79MB的压缩文件(.gz和.lzo)时,我看到加载到表中的行数翻了一番。当压缩文件的大小为60MB或更小时(猜测与64MB,block大小相关的东西),这不会发生。我在上述上下文中所做的一些操作:bash-3.2$ls-ltr-rw-r--r--1bhargavnbhargavn354844413Nov1602:27large_file-rw-rw-r--1bhargavnbhargavn15669507Nov2103:41small_file.lzo-rw-

hadoop - Sqoop 导入后无法查询 Hive 表

我通过sqoop将oracle数据库的几个表导入到hive中。该命令看起来像这样:./sqoopimport--connectjdbc:oracle:thin:@//185.2.252.52:1521/orcl--usernameUSER_NAME--passwordtest--tableTABLENAME--hive-import我正在使用嵌入式Metastore(至少我是这么认为的。在这方面我没有更改默认配置)。当我在HIVE中执行SHOWTABLES时,导入的表不会显示,但我创建的一些表会通过命令行进行测试。这些表都在hdfs上的同一个仓库目录中。似乎sqoop导入没有使用相同的

hadoop - 哪个版本的 Sqoop 适用于 Hadoop 1.0.4?

我正在使用hadoop1.0.4和hive0.9.0谁能建议我们可以配置哪个版本的Sqoop? 最佳答案 我建议使用最新的Sqoop版本1.4.2。您可以从officialmirror中获取这些位.请确保下载以“hadoop-1.0.0.tar.gz”结尾的文件,其中包含与您的Hadoop版本兼容的二进制工件。 关于hadoop-哪个版本的Sqoop适用于Hadoop1.0.4?,我们在StackOverflow上找到一个类似的问题: https://stac

hadoop - 带有字符串列的 Sqoop 增量

我正在尝试对数据库中的所有表使用增量sqoop作业。一些数据库的列中只有字符串值。有没有办法增加字符串值?所有表都有一个通用的字符串名称。 最佳答案 在我最初发表评论后,我在想你问的问题是否有意义。如果您的数据库强制您将记录日期或递增的数字存储到文本列中,它就会这样做,但这种可能性很小。如果您有一个可以实际使用的日期字段,您可以只使用“lastmodified”模式而不是“append”模式。 关于hadoop-带有字符串列的Sqoop增量,我们在StackOverflow上找到一个类似

hadoop - Sqoop 可以在导入时执行任何 ETL 相关任务吗?

目前,据我了解,数据是从关系数据库Sqooped到HDFS中。从那里,Pig或M/R可以运行ETL相关任务,并将转换后的数据放入HDFS的另一部分。如有必要,可以删除原始数据。有没有办法避免将原始数据导入HDFS并在数据通过Sqoop传入时对数据运行PIG和M/R?这是怎么做到的? 最佳答案 Sqoop/Pig/Hive/MR本质上是面向批处理(长时间)的,无法实时处理数据。考虑使用像Flume这样的框架/Storm/Samza/S4 关于hadoop-Sqoop可以在导入时执行任何ET

hadoop - Sqoop 无法识别导入作业命令中的 --query 参数

我正在尝试将数据从mssql服务器导出到配置单元。我正在使用以下命令将数据从用户表导出到配置单元。sqoopimport--connect"jdbc:sqlserver://{ip}\LOCAL_INSTANCE;database=TEST_DB;user=sa;password=****"--table"Users_Table"--create-hive-table--hive-tableusers_export--target-dir/cdc/export/users--append--query"select*fromUsers_Table"我收到以下错误消息。至少,您必须指定-

hadoop - 关于Oozie/Sqoop的问题

我有几个问题:1.WhyisthereMapReduceprocessinSqooptoloaddatafromHDFStoMySQL?例如数据在目录中的HDFS中:/foo/barMySQLbar表加载数据,为什么会有MapReduce进程?sqoopexport--connectjdbc:mysql://localhost/hduser--tablefoo-m1--export-dir/foo/bar输入上述命令后,MapReduce进程开始执行。2.HowcanIenable/disablekeyinMySQLusingSqoop/Oozie?由于大量数据正在加载到MySQL,我