草庐IT

Sqoop-Export

全部标签

tomcat - 无法让 Sqoop 1.99.3 在 64 位 Centos 6.5 上与 Apache Hadoop 2.4.0 一起工作

我在Centos6.5KVM虚拟服务器上运行并安装了Apachehadoop。它安装在/home/hduser/yarn/hadoop-2.4.0andtheconfigfilesarein/home/hduser/yarn/hadoop-2.4.0/etc/hadoop.我从hadoop那里收到关于库是32位的投诉(猜测二进制安装默认包含这些)所以我做了一个完整的源代码构建以获得64位库。但似乎sqoop1.99.3无论如何只想使用hadoopjar..(?)这似乎是主要错误,似乎也是一个流行的错误,但我找不到任何有效的建议。addtowar.sh不在我的sqoop安装中**Caus

postgresql - Sqoop+PostgreSQL : how to prevent quotes around table name

我正在尝试将一个表从Postgresql导入到HDFS上的一个Parquet文件。这是我的做法:sqoopimport\--connect"jdbc:postgresql://pg.foo.net:5432/bar"\--usernameuser_me--password$PASSWORD\--tablefoo.bar\--target-dir/user/me/bar\--as-parquetfile我明白了INFOmanager.SqlManager:ExecutingSQLstatement:SELECTt.*FROM"foo.bar"AStLIMIT1ERRORmanager.S

hadoop - 如何保护Sqoop中的密码和用户名?

我想隐藏我用来将数据从RDBMS导入Hadoop集群的密码。我正在使用--option-files将我的密码和用户名保存在文本文件中,但它不protected。我可以对该特定文件进行某种加密以获得更好的保护吗? 最佳答案 向数据库提供密码的安全方式。Youshouldsavethepasswordinafileontheusershomedirectorywith400permissionsandspecifythepathtothatfileusingthe--password-fileargument,andistheprefe

amazon-web-services - 我们可以使用 sqoop 将数据从 Hadoop (Hive) 导出到 Amazon Redshift

我有一个本地Hadoop集群,想将数据加载到AmazonRedshift。考虑到成本,Informatica/Talend不是一个选择,那么我们可以利用Sqoop直接将表从Hive导出到Redshift吗?Sqoop是否连接到Redshift? 最佳答案 将数据加载到AmazonRedshift中的最有效的方法是将数据放入AmazonS3,然后在Redshift中发出COPY命令。这会在所有Redshift节点上执行并行数据加载。虽然Sqoop可以使用传统的INSERTSQL命令将数据插入Redshift,但这并不是将数据插入Red

sql-server - Sqoop 导出到 SQL Server : schemas?

我想将HDFS中的数据导出到架构my_schema中的SQLServer表。我试过像导入命令一样的--schema:sqoopexport\--libjars/opt/mapr/sqoop/sqoop-1.4.6/lib/sqljdbc4.jar\--connect"jdbc:sqlserver://MY-SERVER-DNS;database=my_db;"\--schema"myschema"\--table"my_table"\--export-dir/path/to/my/hdfs/dirERRORtool.BaseSqoopTool:Unrecognizedargument:

hadoop - Apache Sqoop 和 Flume 可以互换使用吗?

我是大数据的新手。来自What'sthedifferencebetweenFlumeandSqoop?的一些答案,Flume和Sqoop都可以从源中拉取数据并推送到Hadoop。任何人都可以指定使用flume和sqoop的确切位置吗?两者都可以用于相同的任务吗? 最佳答案 Flume和Sqoop两者都设计用于处理不同类型的数据源。Sqoop可与任何支持JDBC连接的RDBMS系统一起使用。另一方面,Flume可以很好地处理流式数据源,例如在您的环境中不断生成的日志数据。具体来说,Sqoop可用于将数据导入/导出RDBMS系统,例如O

hadoop - "Got error creating database manager"- sqoop 导入查询出错

场景:我正在尝试从sqlserver导入到HDFS,但出现以下错误:错误:hadoop@ubuntu:~/sqoop-1.1.0/bin$./sqoopimport--connect'jdbc:sqlserver://192.168.230.1;username=xxx;password=xxxxx;database=HadoopTest'--tablePersonInfo--target-dir/home/hadoop/hadoop-0.21.0/11/12/1012:13:20ERRORtool.BaseSqoopTool:Goterrorcreatingdatabasemanag

oracle - sqoop 不导入数据类型 varchar2

sqoop不导入数据类型varchar2到hadoop我在oracle数据库中有一个表,我想将数据导入到hdfs。我正在尝试使用sqoop进行操作,但未导入varchar2列。我的意思是这些数据没有到达hdfs文件。我的sqoop命令sqoopimport-Dmapred.job.name='defaultoraoop'--driveroracle.jdbc.driver.OracleDriver--connect"jdbc:oracle:thin:MyIp:MyServiceName"--username"XXXX"--password"XX"--target-dir"My_dir"

hadoop - Sqoop 增量导入到 S3 Wrong FS 报错

使用--incrementalappend时sqoopimport中的标志,作业将失败。ERRORtool.ImportTool:ImportedFailed:WrongFS:s3n://:@bucket/folder/完整命令如下:sqoopimport--connectjdbc:postgresql://someplace.net:12345/db--warehouse-dirs3n://:@bucket/folder/--tablemy_table--hive-drop-import-delims--escaped-by"\\"--usernameroot--passwordsa

hadoop - Sqoop 导入 : composite primary key and textual primary key

堆栈:使用Ambari2.1安装HDP-2.3.2.0-2950源数据库模式在sqlserver上,它包含几个表,这些表的主键为:一个变量复合-两个varchar列或一个varchar+一个int列或两个int列。有一张大table?三行PK中的列一个int+两个varchar列根据Sqoop文档:Sqoopcannotcurrentlysplitonmulti-columnindices.Ifyourtablehasnoindexcolumn,orhasamulti-columnkey,thenyoumustalsomanuallychooseasplittingcolumn.第一个