草庐IT

Sqoop-Export

全部标签

hadoop - sqoop 导入完成但 hive 显示表看不到表

安装hadoop后,hive(CDH版)我执行./sqoopimport-connectjdbc:mysql://10.164.11.204/server-usernameroot-passwordpassword-tableuser-hive-import--hive-home/opt/hive/一切正常,但是当我输入hive命令行并执行showtables时,什么也没有。我使用./hadoopfs-ls,我可以看到/user/(username)/user存在。感谢任何帮助。---编辑------------/sqoopimport-connectjdbc:mysql://10.1

sql-server-2008 - 从 sql server 导入表时 sqoop 挂起

我正在尝试将一个简单的表从SQLServer2008R2数据库导入到配置单元中。Hadoopversion-CDH3U3Sqoopversion-1.3.0-cdh3u3$SQOOP_HOME/lib-sqljdbc4.jar$SQOOP_HOME/lib-sqoop-sqlserver-1.0.jar$SQOOP_CONF_DIR/managers.d/mssqoop-sqlserverWindowsfirewall-disabledLinuxIPTables-disabled我的导入命令是-sqoopimport--connect'jdbc:sqlserver://172.16.1

mysql - 如何使用 Sqoop 从 MySQL 增量导入到 Hive?

我可以使用Sqoop成功地从MySQL增量导入到HDFSsqoopjob-createJOBNAME...--incrementalappend--check-columnid--last-valueLASTsqoopjob-execJOBNAME以日志消息结束INFOtool.ImportTool:SavingincrementalimportstatetothemetastoreINFOtool.ImportTool:Updateddataforjob:JOBNAME检查作业表明incremental.last.value已正确更新。如果我尝试相同的过程,但将“--hive-imp

mysql - 使用 sqoop 将 mysql 查询导入到 hbase

我已经在装有osx10.9的Mac上安装并运行了hadoop/hbase/hive/(可以在hdfs上创建文件,运行mapreduce作业,在hbase和hive中创建“表”)。我现在正在尝试将数据从mysql表导入到sqoop(使用查询,而不是表名等)。我在使用此命令时遇到此错误。--COMMANDsqoopimport--connectjdbc:mysql:///joshLocal--usernameroot--query"SELECT*FROMBITLOGWHERE\$CONDITIONS"--split-byoozie_job.id--hbase-tablebitlogTest

hadoop - sqoop导入mysql问题

我使用Hadoop已经4天了,我正在尝试从我的本地数据库mysql导入一个表,以学习sqoop,我的机器是ubuntu13.04,我的sqoop版本:1.4.3-cdh4.7.0,mysql:5.5。34这是我在提示中使用的命令:sqoopimport--connectjdbc:mysql://192.168.52.60:3306/saloni--usernameuser--tablepv--passwordxxxx;我得到的是:14/06/0316:11:36WARNconf.Configuration:badconffile:elementnot14/06/0316:11:36WA

hadoop - 从 SQL Server 导入数据的 Sqoop 作业卡在 Map 0%

我有一个运行CDH5.0.2的伪分布式hadoop集群。我正在运行sqoop导入命令:sudo-usqoopsqoopimport--connect"jdbc:sqlserver://x.x.x.x:1433;databaseName=yyyyy"--usernamex--passwordy--tabletable_name我只是导入一个非常小的表,它有12行和2列用于测试。该作业已运行半小时。在我的资源管理器上,映射器任务的状态列为NEW,它们的状态列为SCHEDULED。我认为它永远不会运行!当我使用yarn列出作业时:yarnapplication-list我得到:14/07/0

sql-server - sqoop 导出异常

我正在将数据从HDFS导出到sqlserver。我使用了以下命令sqoopexport--connect"jdbc:sqlserver://hostname:portno;database=dbname;user=xxxx;password=passwd"--tablesample--export-dir/sample但我收到用户xxxx登录失败的消息。但是凭据在命令中是正确的。谁能告诉我为什么? 最佳答案 也许太简单了,但我认为用户的连接字符串属性应该是用户名而不是用户。你能这样试试吗?sqoopexport--connect"j

mysql - 在 SQOOP 导入中避免倾斜并确定最佳映射器数量

如果源表上有主键,SQOOPimport将不会生成倾斜数据...如果表上没有定义主键,我们必须使用--split-by参数来拆分记录怎么办多个映射器。根据我们选择--split-by的列,数据很可能会出现偏差。能否请您帮助我了解如何避免在这种情况下发生偏差,以及如何确定用于任何SQOOP导入的映射器的最佳数量。 最佳答案 这是最初提出的重复问题here(community.cloudera.com)我发布了以下可能的解决方案,用于通过利用xargs管理映射器中的偏差。这种方法允许您避免偏差、并行化摄取并限制并发工作。我写了一篇关于它

hadoop - 在 Hive 中创建外部 Avro 表时,Sqoop 导入为 Avro 数据文件时将所有值都设为 NULL

我正在尝试使用Sqoop导入自由格式查询将Oracle数据库数据导入HDFS,方法是使用Oozie调度程序使用'--as-avrodatafile'连接两个表。以下是我的workflow.xml的内容:${jobTracker}${nameNode}import--connectjdbc:oracle:thin:@connection-string:1521:ORCL--usernamecomcast--passwordcomcast123--queryselectlocation.location_id,location.street1,location_meta.display_n

hadoop - Sqoop 导入具有 avro 格式换行符的数据,然后使用配置单元查询

我的要求是通过sqoop(1.4.6)以avro格式将数据从RDBMS加载到HDFS(由CDH5.9.X支持),然后使用外部hive(1.1)表查询数据。不幸的是,RDBMS中的数据有一些换行符。我们都知道hive无法解析数据中的换行符,hive选中整条数据时数据映射失败。但是,hive的selectcount(*)工作正常。我在sqoop导入过程中使用了以下选项并进行了检查,但没有起作用:--hive-drop-import-delims--hive-delims-replacement以上选项适用于文本格式。但是以文本格式存储数据对我来说不是一个可行的选择。上述选项在Sqoop生成