草庐IT

hadoop - 如何在 Windows 系统中安装 Sqoop 以及它需要哪些必要的东西?

我尝试安装sqoop,因为我指的是一些安装指南,其中说HBase和mapr作为先决条件安装。我不明白如何进行。那么有人可以指导我如何在Windows系统中安装Sqoop以及它需要哪些必要的东西吗? 最佳答案 如果您想在Windows上使用Sqoop/Hadoop进行播放/调试-您可以在您的机器上安装HDInsight模拟器。这将安装包括sqoop和sqoop连接器的单节点Hadoop部署。我写的以下帖子可以指导您完成整个过程。它展示了如何在您的开发箱上安装Hadoop和SQLExpress,以及如何通过Sqoop导入/导出数据。ht

hadoop - Sqoop Export Oozie Workflow 因未找到文件而失败,从控制台运行时有效

我有一个包含6个节点的hadoop集群。我正在通过Sqoop从MSSQL中提取数据并返回到MSSQL中。Sqoop导入命令运行良好,我可以从控制台(在其中一个hadoop节点上)运行sqoop导出命令。这是我运行的shell脚本:SQLHOST=sqlservermaster.localSQLDBNAME=db1HIVEDBNAME=db1BATCHID=USERNAME="sqlusername"PASSWORD="password"sqoopexport--connect'jdbc:sqlserver://'$SQLHOST';username='$USERNAME';passwo

hadoop - sqoop:如何从 mySql 获取增量更新

我正在尝试让Sqoop读取mysql表的内容。到目前为止,我已经成功地转储了HDFS表的完整内容,而且我还成功地获得了基于id的增量更新。我无法做的是根据日期或日期时间戳获取增量更新。作业似乎运行正确(没有错误),但没有任何内容写入HDFS我正在运行的命令是:sqoopimport--connectjdbc:mysql://localhost/myDb--usernameme--passwordmyPassword--warehouse-dir/inc-3--tablemyTable--incrementallastmodified--check-columndatestamp--la

apache - 支持 Hive、Sqoop 和 Pig

ApacheAtlas是否支持Spark、Pig和Sqoop的标签?如果Atlas支持Pig、Sqoop和Spark,那么是否有任何类型的定制我们必须执行才能使其在Atlas中运行。如果我们想实现上述内容,我们可以从那里获得确切的过程带有Atlas的Hadoop组件。Atlas在哪里存储元数据?我们如何获得Atlas元数据的架构。Atlas是否提供为其他工具(例如Informatica)并将其与自己的元数据集成?如果Atlas支持上述功能,那么我们如何集成informatica使用Atlas元数据。 最佳答案 问题1:可以在http

oracle - Sqoop 作业因 Oracle 导入的 KiteSDK 验证错误而失败

我正在尝试运行Sqoop作业以从Oracle数据库加载并以Parquet格式加载到Hadoop集群。这项工作是增量的。Sqoop版本为1.4.6。甲骨文版本是12c。Hadoop版本为2.6.0(发行版为Cloudera5.5.1)。Sqoop命令是(创建作业并执行它):$sqoopjob-fshdfs://:8020\--createmyJob\--import\--connectjdbc:oracle:thin:@:/\--username\-P\--as-parquetfile\--table.\--target-dir\--incrementalappend\--check-c

hadoop - Couchbase/hadoop 连接器 : sqoop job FAILED "Found interface org.apache.hadoop.mapreduce.TaskAttemptContext, but class was expected"

我的配置:CouchBase服务器2.0Sqoop1.4.2(为hadoop版本2.0.0编译)栈HadoopCDH4.1.2我想使用CouchBase/Hadoop连接器(http://www.couchbase.com/develop/connectors/hadoop),但是当我启动导入时出现以下错误:sqoop-import--connecthttp://localhost:8091/pools--tableDUMP13/01/0711:00:34INFOtool.CodeGenTool:Beginningcodegeneration13/01/0711:00:34INFOor

hadoop - Sqoop 导入问题 - java.lang.IncompatibleClassChangeError : Found class org. apache.hadoop.mapreduce.JobContext,但接口(interface)是预期的

我正在使用Sqoop1.4.3与hadoop1.2.4和hive0.11.0当我尝试执行sqoop导入时:它抛出了IncompatibleClassChangeError。任何解决这个问题的建议..使用的Sqoop命令:sqoopimport--connectjdbc:mysql://localhost:3306/employees\--usernametest--passwordtest跟踪:Exceptioninthread"main"java.lang.IncompatibleClassChangeError:Foundclassorg.apache.hadoop.mapredu

tomcat - 无法让 Sqoop 1.99.3 在 64 位 Centos 6.5 上与 Apache Hadoop 2.4.0 一起工作

我在Centos6.5KVM虚拟服务器上运行并安装了Apachehadoop。它安装在/home/hduser/yarn/hadoop-2.4.0andtheconfigfilesarein/home/hduser/yarn/hadoop-2.4.0/etc/hadoop.我从hadoop那里收到关于库是32位的投诉(猜测二进制安装默认包含这些)所以我做了一个完整的源代码构建以获得64位库。但似乎sqoop1.99.3无论如何只想使用hadoopjar..(?)这似乎是主要错误,似乎也是一个流行的错误,但我找不到任何有效的建议。addtowar.sh不在我的sqoop安装中**Caus

postgresql - Sqoop+PostgreSQL : how to prevent quotes around table name

我正在尝试将一个表从Postgresql导入到HDFS上的一个Parquet文件。这是我的做法:sqoopimport\--connect"jdbc:postgresql://pg.foo.net:5432/bar"\--usernameuser_me--password$PASSWORD\--tablefoo.bar\--target-dir/user/me/bar\--as-parquetfile我明白了INFOmanager.SqlManager:ExecutingSQLstatement:SELECTt.*FROM"foo.bar"AStLIMIT1ERRORmanager.S

hadoop - 如何保护Sqoop中的密码和用户名?

我想隐藏我用来将数据从RDBMS导入Hadoop集群的密码。我正在使用--option-files将我的密码和用户名保存在文本文件中,但它不protected。我可以对该特定文件进行某种加密以获得更好的保护吗? 最佳答案 向数据库提供密码的安全方式。Youshouldsavethepasswordinafileontheusershomedirectorywith400permissionsandspecifythepathtothatfileusingthe--password-fileargument,andistheprefe