草庐IT

sqoop-import

全部标签

hadoop - 错误 1070 : Could not resolve toDate using imports: [, java.lang., > org.apache.pig.builtin., org.apache.pig.impl.builtin.]

使用pig将数据转换为日期时间时出现问题。导入以下数据集,制表符分隔,我添加了\t来说明。5000001\t1133938\t1273719\t2008-06-0100:03:35.0我想获取最后一个值(2008-06-0100:03:35.0)并提取月份。将其加载为DateTime会生成一个空白字段。因此,我想将其导入为字符数组,然后使用toDate将其转换为我可以在其上使用getMonth的日期时间字段。当我在shell中尝试时,我得到了这个:grunt>orders=load'/home/cloudera/Desktop/orders1'usingPigStorage('\t')

hadoop - 在 Cloudera Quickstart VM 中导入所有表时在 Sqoop 中出现错误

当我尝试通过sqoop导入所有表时出现以下错误:sqoopimport-all-tables-m12--connect在此处输入代码"jdbc:mysql://quickstart.cloudera:3306/retail_db"--username=retail_dba--password=cloudera--warehouse-dir=/r/cloudera/sqoop_importPleaseset$ACCUMULO_HOMEtotherootofyourAccumuloinstallation.17/04/2315:29:27INFOsqoop.Sqoop:RunningSqo

hadoop - 无法使用具有不同分隔符的 Sqoop 从 MySql 导入数据

作为Hadoop领域的初学者,我正在尝试使用Sqoop工具(版本:Sqoop1.4.6-cdh5.8.0)。虽然我引用了各种网站和论坛,但我无法找到可行的解决方案,我可以使用,以外的任何其他分隔符导入数据。PFB我用过的代码:---连接MySql,在字符串中用,创建表和记录。mysql>createdatabaseGRHadoop;QueryOK,1rowaffected(0.00sec)mysql>useGRHadoop;Databasechangedmysql>Createtablesitecustomer(Customeridint(10),Customernamevarchar

mysql - 使用 --create-hive-table 直接在 hive 中导入 mysql 表(sqoop)

我正在为HDPCD考试进行self培训,因此我正在测试使用MySQL到Hive的所有可能的导入和导出。在这个例子中,我想从MySQL导入一个表,并使用参数--create-hive-table在hive中从头开始创建同一个表。尽管在[documentation][1]中包含它,但我找到了一个正确的示例来执行此操作。我已经试过了,但它不起作用sqoopimport--connectjdbc:mysql://master/poc--usernameroot--tabledept--where'id_dept>2'--hive-import--hive-databasepoc--hive-t

hadoop - 如何将Sqoop连接到多个hadoop集群

有没有办法让Sqoop连接到不同的Hadoop集群,从而可以创建多个Sqoop作业将数据导出到多个hadoop集群? 最佳答案 toexportdatatomultiplehadoopclusters如果数据进入Hadoop,那在技术上就是Sqoop导入不清楚您目前如何从一台机器管理不同的集群,但您需要让Sqoop读取所有环境的conf文件夹Thesqoopcommand-lineprogramisawrapperwhichrunsthebin/hadoopscriptshippedwithHadoop.Ifyouhavemulti

hadoop - Sqoop snappy 压缩不起作用

我有以下sqoop脚本,它应该以parquet格式获取数据并使用snappy压缩。sqoopimport\--hive-drop-import-delims\--fields-terminated-by'\001'\--connect''\--query'select*from.where$CONDITIONS'\--username\--password\--split-by''\-m=4\--input-null-string''\--input-null-non-string''\--inline-lob-limit0\--target-dir\--compression-cod

hadoop - Teradata 快速导出(或 TPT)与 Sqoop 导出

编辑:需要确定哪一个更适合从Teradata导出大量数据-Sqoop、TPT或fexpOP:我已经知道teradata的快速导出和TPT不能用于直接将数据导出到Hadoop。我可以将数据带到本地环境并将其并行移动到hadoop。我想知道哪种工具以最有效的方式从Teradata中提取数据。我必须提取具有巨大数据量(近250亿条记录~15TB大小)的数据集。当然,Teradata中的数据分区良好,我将根据分区和UniquePI拆分我的提取策略。我找不到足够的内容来直接比较Teradata实用程序和Sqoop。哪种工具对Teradata环境中当前运行的作业影响最小,并以最优化的方式提取数据。

hadoop - 如何找到 sqoop 支持的连接管理器?

我需要一些帮助...我正在开发一个sqoop指南来教新员工如何使用sqoop。有一个名为--connection-manager的标志,我必须知道我应该列出什么jar文件,以返回我的配置支持的所有连接管理器类。谢谢 最佳答案 如果你看源代码,特别是https://github.com/apache/sqoop/blob/trunk/src/java/org/apache/sqoop/manager/SupportedManagers.java#L26,你会看到:publicenumSupportedManagers{MYSQL(Jd

hadoop - Sqoop 停留在进度的 5%

我正在使用Sqoop将数据从Oracle导入到HDFS。当Job启动时,它会停留在5%的进度上大约1小时,并且输出以下信息:INFOmapreduce.Job:TaskId:attempt_1535519556038_0015_m_000037_0,Status:FAILEDContainerlaunchfailedforcontainer_1535519556038_0015_01_000043:org.apache.hadoop.yarn.exceptions.YarnException:Unauthorizedrequesttostartcontainer.Thistokenis

解决pycharm控制台ImportError: DLL load failed while importing _ssl: 找不到指定的模块。

目录可能情况-首先一定要确定自己的问题原因:情况介绍(瞄一眼即可,看看是否与我情况相似)解决方案:可能情况-首先一定要确定自己的问题原因:配置环境变量的问题,见这篇文章;和我一样,下面介绍;其他情况我还没有遇到过,欢迎大家分享。情况介绍(瞄一眼即可,看看是否与我情况相似)首先介绍一下自己的情况:重新安装了pycharm,在正常环境(即:选择先前配置的解释器,我用的是anacodna3如下图)中控制台是可以使用的。如果在正常环境中控制台无法使用,那大概率是配置环境变量的问题。(转可能情况1,无需继续往后阅读)新建了一个项目,选择的环境为虚拟环境,继承了PyTorch环境里的包,如下:问题描述:在