草庐IT

Sqoop-Export

全部标签

mysql - SQOOP 导出 CSV 到 MySQL 失败

我在HDFS中有CSV文件,其中包含以下行:"2015-12-01","Augusta","46728.0","1"我正在尝试将此文件导出到MySQL表。CREATETABLEtest.events_top10(dtVARCHAR(255),nameVARCHAR(255),summaryVARCHAR(255),row_numberVARCHAR(255));使用命令:sqoopexport--tableevents_top10--export-dir/user/hive/warehouse/result--escaped-by\"--connect...此命令因错误而失败:Erro

mysql - Sqoop 导入 MySql 数据库失败

我将尝试将mysql表导入sqoop,但我遇到以下异常,在我的本地机器上运行的MySql表创建和数据库创建工作正常,当我尝试sqoop导入时,作业自动失败。请帮我。提前致谢。'MySQL'isnotrecognizedasaninternalorexternalcommand,operableprogramorbatchfile.atorg.apache.hadoop.util.Shell.runCommand(Shell.java:538)atorg.apache.hadoop.util.Shell.run(Shell.java:455)atorg.apache.hadoop.uti

hadoop - Sqoop 默认创建 6 个映射器?

我一直认为,如果您不在sqoopimport中指定-m属性,默认情况下会创建4个映射器。但是,在我的例子中,正在创建6个映射器。有人可以解释一下吗?这是sqoop命令:sqoopimport--connectjdbc:mysql://localhost/cloudera--target-dirhdfsout--split-byemployeename--usernameroot--passwordXXXXX--tableemployee员工表有3列。员工姓名、年龄和入职日期。在hdfs中,也创建了6个map部分文件0001、0002....0005。 最佳答

mysql - Apache Hadoop 2.7.1 是否与 Apache Sqoop 1.4.6 兼容?

我已经安装了apachehadoop2.7.1并集成了apachesqoop1.4.6。当我尝试使用sqoop命令从MYSQL数据库导入HIVE时:sqoopimport\--connect"jdbc:mysql://localhost:3306/assignment5"\--usernameroot\--passwordcg\--tableemp_detail\--fields-terminated-by','\--lines-terminated-by'\n'\--hive-home/user/hive/warehouse/assignment5.db\--hive-import\

sql-server - SQOOP EXPORT : java. sql.BatchUpdateException:参数 #1 尚未设置

我正在尝试将sqoop导出到sqlserver并使用以下命令:sqoop-export-Dmapred.job.name=SQOOP:TEST:UPSERT-Dsqoop.export.records.per.statement=1--connect$CONN--username$USER--password$PWD--tabletable_test_1--hcatalog-databasedefault--hcatalog-tabletest_1--input-fields-terminated-by'\001'--input-null-string'\\N'--update-key

sql-server - Sqoop import-all-tables 命令的问题

我正在尝试使用Sqoop将多个SQLServer数据库中的所有表导入HDFS。我正在使用ClouderaCDH5.7。所以我输入以下命令:sqoopimport-all-tables--connect"jdbc:sqlserver://X.X.X.X:1433;database=FEPDB"--usernameXXXXX--passwordXXXXX--hive-import它运行成功,但“FEPDB”数据库中的所有表都没有被导入。我没有在HDFS的配置单元目录中找到它们,也没有在列出Hive中存在的所有表时找到它们。所以我尝试将所有表导入HDFS中的一个目录,然后创建hive表。我给

oracle - Sqoop ExportTool 到 Oracle NullPointer 异常

使用如下命令:sqoopexport\--connectjdbc:oracle:thin:'@somehostname.com:1521/prod1_adhoc'\--usernamefbaggins\--P\--tableMIDDLEEARTH\--hcatalog-databaseMORDOR\--hcatalog-tableMORDOR\--columnsIS_DWARF,IS_ELF\--verbose导致此错误:16/08/2510:08:31INFOhive.metastore:TryingtoconnecttometastorewithURIthrift://someho

hadoop - SQOOP 从 RDBMS 转移到 Hadoop 的速度有多快?

谁能告诉我,SQOOP一次传输20亿条记录的速度有多快。而且我知道它一定很快,因为sqoop并行运行,其中一些输入将在Hadoop上产生一些文件输出。但我想知道MapReduce一次传输20亿条记录的速度详情。 最佳答案 您需要了解负责将数据从RDBMS更快地传输到Hadoop的要点。映射器数量:增加映射器的数量会提高您的速度,因为它将任务分成几部分并并行执行导入。映射器上的平衡负载:您需要在统一的列上拆分(最好是整数)。它将为所有映射器提供均衡负载,并且传输速度更快。来自RDBMS的连接数:您不能只是盲目地增加映射器的数量(例如1

hadoop - 使用sqoop的sql简单连接

我正在尝试使用sqoop运行一个简单的连接查询。以下是查询。sqoopimport--connectjdbc:mysql://localhost:3306/retail_db--usernameroot-P--query'selectd.department_name,c.category_namefromdepartmentsdjoincategoriescond.department_id=c.category_department_idgroupbyd.department_name,c.category_namewhere$CONDITIONS'--target-dir/sqo

hadoop - sqoop 作为 Parquet 文件导入到目标目录,但找不到该文件

我一直在使用sqoop从mysql导入数据到hive,我使用的命令如下:sqoopimport--connectjdbc:mysql://localhost:3306/datasync\--usernameroot--password654321\--query'SELECTid,nameFROMtestWHERE$CONDITIONS'--split-byid\--hive-import--hive-databasedefault--hive-tablea\--target-dir/tmp/yfr--as-parquetfileHive表已创建并插入数据,但是我找不到parquet文