草庐IT

Sqoop-Export

全部标签

sql-server-2008 - 如何 - 使用 View 将 sqoop 导出到 sql server

我在配置单元中有一个表,我已经为它创建了一个View。比如说我的表有以下字段id|name|city|state|county|country我的观点是这样的Id|姓名|国家现在我需要将这些值[从View]导出到sqlserver如何使用View将数据从配置单元导出到sqlserver有什么办法吗?我一直在使用导出到sqlsqoopexport--connect"jdbc:sqlserver://XXXXXX;username=YYY;password=ZZZZZ;database=AdventureWorksDW"--tablesqlg--export-dir/hive/datawa

hadoop - 如何使用sqoop从hadoop加载数据到solr?

我想将通过现在驻留在HDFS中的MR作业创建的索引复制到solr中。是否可以使用sqoop?如果是,要使用的jdbc连接器或驱动程序是什么?如果不是sqoop,还有其他方法吗? 最佳答案 您可能需要考虑使用水槽。https://flume.apache.org/FlumeUserGuide.html#flume-1-5-2-user-guideMorphlineSolrSink:此接收器非常适合将原始数据流式传输到HDFS(通过HdfsSink)并同时提取、转换并将相同数据加载到Solr中的用例(通过MorphlineSolrSin

postgresql - 大量导出时出现 Sqoop PSQLException "Sorry, too many clients already"

当从HDFS导出大型(超过200万行)表到Postgres时,我看到Sqoop抛出PSQLException“抱歉,客户端已经太多了”。我有几张较小的table(约300万张),它们似乎运行良好。即使大表出现故障,我的postgres表中似乎仍然有大约200万行,但我猜这只是来自那些没有死的worker,因为他们首先获得了其中一个连接。我的Postgres表配置为允许300个max_connections,并且有大约70个连接始终来自其他应用程序,因此SQOOP应该有大约230个可供使用。我尝试在我的SQOOP导出命令中将--num-mappers切换为2-8,但这似乎并没有太大的区别

sql-server - 从配置单元到 sql 的 Sqoop 导出被卡住了

我正在使用WindowsAzureHDInsightsHadoop集群,我正在尝试将配置单元表从那里导出到SQLAzure服务器。hive表非常简单(实际上,目前它由一列数据组成,没有任何空格字符和其他特殊符号)。在服务器端,它也是一个具有以下架构的表:CREATETABLEexp(line[nvarchar](100))对于导出,我使用以下PS脚本:$tableName='exp'$connectionString="jdbc:sqlserver://$sqlDatabaseServerName.database.windows.net;user=$sqlDatabaseLogin@

hadoop - Sqoop增量导入 "Cannot append files to target dir"

我在使用Sqoop将数据从MySQL导入Hive时遇到问题...这个查询:sqoopimport--connectjdbc:mysql://xx.xx.xx.xx/database\--usernamesqoop--passwordsqoop--tabledatatable\--target-dir/home/cloudera/user/hive/warehouse/database.db/datatable\--as-parquetfile-m1--append返回这个错误:15/01/1416:27:28WARNutil.AppendUtils:Cannotappendfilest

mysql - Sqoop 导入安全 hbase 失败

我正在使用具有kerberos安全性的hadoop-2.6.0。我已经安装了具有kerberos安全性的hbase,并且能够创建表并对其进行扫描。我也可以运行sqoop作业将数据从mysql导入到hdfs,但是当尝试从mysql导入到HBase时sqoop作业失败。Sqoop命令sqoopimport--hbase-create-table--hbase-tablenewtable--column-familyck--hbase-row-keyid--connectjdbc:mysql://localhost/sample--usernameroot--passwordroot--ta

hadoop - 我怎么知道Sqoop在Hadoop和NoSQL之间传输数据的时间?

我是Hadoop的新手。我需要从couchbase导入数据到hdfs。已经完成了。但是,我怎么知道数据传输已经完成,这样我就可以用这些数据顺序运行作业(mapreduce)?非常感谢你。 最佳答案 在完成第一个sqoop加载作业后自动触发第二个作业的最佳方法是使用Oozieworkflow自动化。他们创造了两个动作,第一个动作是一个具有相关属性的sqoop动作配置为将数据从couchbase表加载到hdfs。让第二个作业是任何(HIV/MapReduce/Shell/Java)动作将访问第一个操作的输出,然后开始处理。第二个操作将在

apache - sqoop 导入错误 - 文件不存在 :

我正在尝试使用Sqoop将数据从MySql导入到HDFS。但是我收到以下错误。如何解决?命令:sqoopimport--connectjdbc:mysql://localhost/testDB--usernameroot--passwordpassword--tablestudent--m1错误:ERRORtool.ImportTool:EncounteredIOExceptionrunningimportjob:java.io.FileNotFoundException:Filedoesnotexist:hdfs://localhost:54310/usr/lib/sqoop/lib

sql-server - 使用 sqoop 从 sql server 导入表时出错

我在将数据库表从SQL-server导入到hadoopHDFS时遇到此错误,但是列表数据库成功运行并且Hadoop作业执行正确。这些是我得到的一些错误:sqoopimport--connect'jdbc:sqlserver://192.168.1.15:1433;username=root;password=root;database=project'--query'SELECT*FROMCarWHERE$CONDITIONS'--target-dir/data/Database--split-by'car_id'--as-textfile16/04/0816:50:42WARNmap

hadoop - sqoop 命令的属性是否遵循某种句法顺序?

例如$sqoop导入\--connectjdbc:mysql://localhost/userdb\--用户名根\--表emp_add\--m1\(或--num-mappers10)--其中“城市='abcd'”\--目标目录/whereque是一样的吗?$sqoop导入\--connectjdbc:mysql://localhost/userdb\--用户名根\--表emp_add\--其中“城市='abcd'”\--target-dir/whereque--m1\(或--num-mappers10)我尝试了以上两个选项并且有效。但我的问题是我们能否将所有案例的属性混在一起?