草庐IT

hadoop - com.cloudera.sqoop.SqoopOptions 与 org.apache.sqoop.SqoopOptions 之间有什么区别吗?

Iamnewinsqoop.Actualiamusedsqoopimport&exportthroughcommandlinearguments.Butnowiamtryingtoimplmentwithjava.IgotcompiletimeerrorwhencallingexpTool.run(sqoopoptions)whenusingtheorg.apache.sqoop.SqoopOptionspackage.Ifiamtryingtouseclouderapackageinsteadofapachesqooppackage.thereisnocompiletimeexecp

hadoop - Sqoop 导出到 RDBMS .lzo .gz 文件超过 64 MB 加载重复

使用sqoop1.3尝试将hdfs输出导出到mysql表加载大小超过300MB的未压缩文件时一切正常但是在加载大小为75MB或79MB的压缩文件(.gz和.lzo)时,我看到加载到表中的行数翻了一番。当压缩文件的大小为60MB或更小时(猜测与64MB,block大小相关的东西),这不会发生。我在上述上下文中所做的一些操作:bash-3.2$ls-ltr-rw-r--r--1bhargavnbhargavn354844413Nov1602:27large_file-rw-rw-r--1bhargavnbhargavn15669507Nov2103:41small_file.lzo-rw-

hadoop - Sqoop 导入后无法查询 Hive 表

我通过sqoop将oracle数据库的几个表导入到hive中。该命令看起来像这样:./sqoopimport--connectjdbc:oracle:thin:@//185.2.252.52:1521/orcl--usernameUSER_NAME--passwordtest--tableTABLENAME--hive-import我正在使用嵌入式Metastore(至少我是这么认为的。在这方面我没有更改默认配置)。当我在HIVE中执行SHOWTABLES时,导入的表不会显示,但我创建的一些表会通过命令行进行测试。这些表都在hdfs上的同一个仓库目录中。似乎sqoop导入没有使用相同的

hadoop - 哪个版本的 Sqoop 适用于 Hadoop 1.0.4?

我正在使用hadoop1.0.4和hive0.9.0谁能建议我们可以配置哪个版本的Sqoop? 最佳答案 我建议使用最新的Sqoop版本1.4.2。您可以从officialmirror中获取这些位.请确保下载以“hadoop-1.0.0.tar.gz”结尾的文件,其中包含与您的Hadoop版本兼容的二进制工件。 关于hadoop-哪个版本的Sqoop适用于Hadoop1.0.4?,我们在StackOverflow上找到一个类似的问题: https://stac

hadoop - 带有字符串列的 Sqoop 增量

我正在尝试对数据库中的所有表使用增量sqoop作业。一些数据库的列中只有字符串值。有没有办法增加字符串值?所有表都有一个通用的字符串名称。 最佳答案 在我最初发表评论后,我在想你问的问题是否有意义。如果您的数据库强制您将记录日期或递增的数字存储到文本列中,它就会这样做,但这种可能性很小。如果您有一个可以实际使用的日期字段,您可以只使用“lastmodified”模式而不是“append”模式。 关于hadoop-带有字符串列的Sqoop增量,我们在StackOverflow上找到一个类似

hadoop - Sqoop 可以在导入时执行任何 ETL 相关任务吗?

目前,据我了解,数据是从关系数据库Sqooped到HDFS中。从那里,Pig或M/R可以运行ETL相关任务,并将转换后的数据放入HDFS的另一部分。如有必要,可以删除原始数据。有没有办法避免将原始数据导入HDFS并在数据通过Sqoop传入时对数据运行PIG和M/R?这是怎么做到的? 最佳答案 Sqoop/Pig/Hive/MR本质上是面向批处理(长时间)的,无法实时处理数据。考虑使用像Flume这样的框架/Storm/Samza/S4 关于hadoop-Sqoop可以在导入时执行任何ET

hadoop - Sqoop 无法识别导入作业命令中的 --query 参数

我正在尝试将数据从mssql服务器导出到配置单元。我正在使用以下命令将数据从用户表导出到配置单元。sqoopimport--connect"jdbc:sqlserver://{ip}\LOCAL_INSTANCE;database=TEST_DB;user=sa;password=****"--table"Users_Table"--create-hive-table--hive-tableusers_export--target-dir/cdc/export/users--append--query"select*fromUsers_Table"我收到以下错误消息。至少,您必须指定-

hadoop - 关于Oozie/Sqoop的问题

我有几个问题:1.WhyisthereMapReduceprocessinSqooptoloaddatafromHDFStoMySQL?例如数据在目录中的HDFS中:/foo/barMySQLbar表加载数据,为什么会有MapReduce进程?sqoopexport--connectjdbc:mysql://localhost/hduser--tablefoo-m1--export-dir/foo/bar输入上述命令后,MapReduce进程开始执行。2.HowcanIenable/disablekeyinMySQLusingSqoop/Oozie?由于大量数据正在加载到MySQL,我

java - 在 Windows 上启动 sqoop 客户端时出错

根据installationdirections我跑:./bin/sqoop.sh客户端它返回错误:couldnotfindorloadmainclassorg.apache.sqoop.shell.SqoopShell我是第一次设置Sqoop。我在RedhatLinux上启动并运行了服务器。现在我被困在WindowsServer2012上运行客户端。我正在运行hadoopv2和sqoop-1.99.3-bin-hadoop200。在命令行中,我通过在命令行中运行“java-version”并看到“1.8.0”来验证是否安装了java。ScoopiswritteninJava1.6.那

hadoop - 从 Hive 加载数据到 MySQL 时出现 Sqoop 错误

从Hive加载数据到MySQL时出现sqoop错误错误信息是:java.lang.NumberFormatException:对于输入字符串==hive>CREATEEXTERNALTABLEIFNOTEXISTStest(idint,namestring)ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t'LINESTERMINATEDBY'\n'STOREDASTEXTFILELOCATION'/user/cloudera/test';==vi测试:1a2b==hadoopfs-puttest/user/cloudera==mysql>CREATETAB