草庐IT

postgresql - Sqoop安装从postgresql导出和导入

我刚刚安装了sqoop并正在测试它。我尝试使用sqoop将一些数据从hdfs导出到postgresql。当我运行它时,它抛出以下异常:java.io.IOException:Can'texportdata,pleasechecktasktrackerlogs。我想也可能是安装有问题。文件内容是:ustNU45MB1bA0gNbCO76iZP1039B2aoo45SI7eG935sC4k602IhFV2u2A4816yvy6R51LNhsV26mZ2yn6580Gp343Wk5Ag85VUfyp93P077j94f1Oj511LxJkg720H7NP99Dk40625g4KRp76Fw3

hadoop - 通过 oozie 进行 Sqoop 作业

我创建了一个名为TeamMemsImportJob的sqoop作业,它基本上将数据从sqlserver拉入hive。我可以通过运行以下命令通过unix命令行执行sqoop作业:sqoopjob–execTeamMemsImportJob如果我创建一个oozie作业,其中包含实际的scoopimport命令,它可以正常运行。但是,如果我创建oozie作业并通过它运行sqoop作业,我会收到以下错误:ooziejob-configTeamMemsImportJob.properties-run>>>InvokingSqoopcommandlinenow>>>4273[main]WARNor

hadoop - CDH 5.4.4 Sqoop 2 作业开始但从未运行

ClouderaCommunityPost在Cloudera5.4.4中使用Hue,当尝试运行Sqoop2作业时,它显示(i)Thejobisstarting...但它从未真正运行该作业。我在工作浏览器中看不到任何内容,在工作的SUBMISSIONS列表中也看不到任何内容。我在日志中也没有看到任何错误。这是在现有的Cloudera5.4.4(QuickStartVM)上,我假设所有组件都已正确预配置。不幸的是,我所要做的就是缺少错误消息和有用的报告。 最佳答案 在CDH5上,sqoop2服务器确实在/var/log/sqoop2/s

mysql - java.sql.SQLException : expection being thrown for SQOOP import 异常

当我尝试使用将存储在mysql数据库中的表存储到我的HDFS中时sqoopimport--connectjdbc:mysql://hostname1.com/mydb--usernameuser1--passwordpwd1--tableemp1;我遇到以下异常:Warning:/opt/cloudera/parcels/CDH-5.4.3-1.cdh5.4.3.p0.6/bin/../lib/sqoop/../accumulodoesnotexist!Accumuloimportswillfail.Pleaseset$ACCUMULO_HOMEtotherootofyourAccum

hadoop - hadoop和sqoop可以在不同机器上分开运行吗

我在新节点上安装了sqoop1.4.6,hadoop在不同的节点上运行。我可以让我的sqoop服务器使用现有的hadoop环境吗?我知道有一些参数“--hadoop-mapred-home”来设置hadoop路径,但这是在同一个节点中使用的。 最佳答案 Sqoop不需要所有的hadoop服务都在本地运行。它只需要一个hadoop客户端。安装hadoop客户端,设置HADOOP_HOME,添加与hadoop节点相同的配置文件。 关于hadoop-hadoop和sqoop可以在不同机器上分开

hadoop - 我如何编辑/更改现有的 sqoop 作业

我如何编辑/更改现有的sqoop作业?找不到与编辑现有sqoop作业相关的任何文档。请协助。 最佳答案 sqoop1文件没有编辑这一项作业,但是sqoop2可以修改。如果是sqoop1,你应该bin/sqoopjob--showyour-sync-job记住配置项bin/sqoopjob--deleteyour-sync-job然后sqoopjob--createsqooptest--import--connectjdbc:mysql://10.10.209.224:3306/sqoop--tableuserinfo--userna

hadoop - 通过 teradata 连接时出现 Sqoop 错误

我无法使用Teradata执行sqoop命令。我收到这个错误:Error8017][SQLState28000]TheUserId,PasswordorAccountisinvalid.Sqoop命令:sqoopimport--connectjdbc:teradata://TDPRODC/LOGMECH=LDAP--drivercom.teradata.jdbc.TeraDriver--usernamesvddssas--password''--tableADW.GST_STST_V--hive-import--hive-tablewins.gst_stst_v1-m1

mysql - SQOOP 导出 CSV 到 MySQL 失败

我在HDFS中有CSV文件,其中包含以下行:"2015-12-01","Augusta","46728.0","1"我正在尝试将此文件导出到MySQL表。CREATETABLEtest.events_top10(dtVARCHAR(255),nameVARCHAR(255),summaryVARCHAR(255),row_numberVARCHAR(255));使用命令:sqoopexport--tableevents_top10--export-dir/user/hive/warehouse/result--escaped-by\"--connect...此命令因错误而失败:Erro

mysql - Sqoop 导入 MySql 数据库失败

我将尝试将mysql表导入sqoop,但我遇到以下异常,在我的本地机器上运行的MySql表创建和数据库创建工作正常,当我尝试sqoop导入时,作业自动失败。请帮我。提前致谢。'MySQL'isnotrecognizedasaninternalorexternalcommand,operableprogramorbatchfile.atorg.apache.hadoop.util.Shell.runCommand(Shell.java:538)atorg.apache.hadoop.util.Shell.run(Shell.java:455)atorg.apache.hadoop.uti

hadoop - Sqoop 默认创建 6 个映射器?

我一直认为,如果您不在sqoopimport中指定-m属性,默认情况下会创建4个映射器。但是,在我的例子中,正在创建6个映射器。有人可以解释一下吗?这是sqoop命令:sqoopimport--connectjdbc:mysql://localhost/cloudera--target-dirhdfsout--split-byemployeename--usernameroot--passwordXXXXX--tableemployee员工表有3列。员工姓名、年龄和入职日期。在hdfs中,也创建了6个map部分文件0001、0002....0005。 最佳答