草庐IT

hadoop-mapreduce

全部标签

hadoop - 尝试执行 pig 语句时出错

我正在尝试执行一条pig语句,该语句向我显示txt文件中的数据,并且我在mapreduce模式下运行,但是我收到一个错误,请有人帮我解决这个问题!![root@master~]#pig-xmapreduce17/04/1917:42:34INFOpig.ExecTypeProvider:TryingExecType:LOCAL17/04/1917:42:34INFOpig.ExecTypeProvider:TryingExecType:MAPREDUCE17/04/1917:42:34INFOpig.ExecTypeProvider:PickedMAPREDUCEastheExecTy

java - Hadoop input.FileSplit 不能大小写为 mapred.FileSplit

我正在尝试使用以下代码在HadoopMapper中获取文件名:FileSplitfileSplit=(FileSplit)context.getInputSplit();Stringfilename=fileSplit.getPath().getName();我导入的库是:importorg.apache.hadoop.mapred.FileSplit;我得到异常:org.apache.hadoop.mapreduce.lib.input.FileSplitcannotbecasttoorg.apache.hadoop.mapred.FileSplit有人可以帮忙吗?

hadoop - 由于 UTC 时间, hive 中的日期转换问题

我有时间2017-05-04T23:25:23.234Z我想使用HIVE获取2017-05-0423:25:23.234。如何实现这一目标?实际数据-2017-05-04T23:25:23.234Z预期-2017-05-0423:25:23.234实际数据-2016-05-04T02:29:23.231234Z预期-2016-05-0402:29:23.231234请帮帮我 最佳答案 selecttranslate('2017-05-04T23:25:23.234Z','TZ','')2017-05-0423:25:23.234

hadoop - Impala - 替换表分区中的所有数据

我有一个程序可以生成有关Impala表分区的所有数据。该程序将数据写入HDFS文本文件。如何(物理地)删除以前属于该分区的所有数据,并用转换为Parquet格式的新文本文件中的数据替换它们?如果我使用原始HDFSAPI物理删除组成分区的旧Parquet文件,它会干扰Impala吗? 最佳答案 为您的文本文件创建表格:createexternaltablestg_table(...)location'';外部数据更改后,您必须刷新它:refreshstg_table;然后插入你的目标表insertoverwritetabletarge

hadoop - 在 Cloudera Quickstart VM 中导入所有表时在 Sqoop 中出现错误

当我尝试通过sqoop导入所有表时出现以下错误:sqoopimport-all-tables-m12--connect在此处输入代码"jdbc:mysql://quickstart.cloudera:3306/retail_db"--username=retail_dba--password=cloudera--warehouse-dir=/r/cloudera/sqoop_importPleaseset$ACCUMULO_HOMEtotherootofyourAccumuloinstallation.17/04/2315:29:27INFOsqoop.Sqoop:RunningSqo

hadoop - 我如何使用 boto3 在现有的 emr 集群上应用安全配置?

我是awsemr服务的新手。我正在尝试使用boto3向已创建的emr集群添加安全配置。请回复是否可以这样做,或者是否有任何替代解决方案来实现相同的目标 最佳答案 SpecifyingAmazonEMREncryptionOptionsUsingaSecurityConfiguration文档页面说:Usingasecurityconfigurationtospecifyclusterencryptionsettingsisatwo-stepprocess.First,youcreateasecurityconfiguration,w

hadoop - 将制表符分隔格式的 txt 文件加载到 Hbase 中

我正在尝试将制表符分隔的文件加载到hbase中。我收到屏幕截图中提到的错误,请指教。文件内容:21/1/160:291/1/160:3921/1/160:191/1/160:3921/1/160:191/1/160:3921/1/160:221/1/160:3821/1/160:241/1/160:3921/1/160:321/1/160:39查询:hbaseorg.apache.hadoop.hbase.mapreduce.ImportTsv-Dimporttsv.columns=HBASE_ROW_KEY,id,date:c1,date:c2sample1hdfs://localh

hadoop - 无法使用具有不同分隔符的 Sqoop 从 MySql 导入数据

作为Hadoop领域的初学者,我正在尝试使用Sqoop工具(版本:Sqoop1.4.6-cdh5.8.0)。虽然我引用了各种网站和论坛,但我无法找到可行的解决方案,我可以使用,以外的任何其他分隔符导入数据。PFB我用过的代码:---连接MySql,在字符串中用,创建表和记录。mysql>createdatabaseGRHadoop;QueryOK,1rowaffected(0.00sec)mysql>useGRHadoop;Databasechangedmysql>Createtablesitecustomer(Customeridint(10),Customernamevarchar

validation - 使用 Kafka 和 Hadoop 进行数据摄取——如何避免质量检查失败导致的数据重复?

这是一个简化的场景:N个业务流程需要来自同一来源的相同原始数据。数据使用Kafka(正常的Kafka管道)提取并登陆HDFS,在HDFS中,每个流的原始数据都会触发自动质量检查流。所有N个流可能具有不同的数据质量标准。例如,他们可能需要在将原始数据转换为所需模式时将不同格式的日期和时间应用于原始数据。处理未能满足业务流程质量测试的KPI的最佳方法是什么?选项是:全部失败-通知源数据提供者并等待修复数据。然后重新摄取并运行所有N组质量检查。创建一个分支——意味着N个业务流中的K个没有通过质量检查将等待他们的固定数据集,而通过的N-K将适用于当前数据集。标记未通过某些业务流程质量检查的条目

hadoop - 如何删除所有 accumulo 表或为 accumulo 格式化 hadoop 文件

我想为我的本地机器清除accumulo中的所有记录,并想删除在测试时创建的未使用的表。我发现可以从accumuloshell使用deletetable命令,但是这将需要大量手动工作来删除大量表。我也试过instructions格式化hadoop的名称节点,但这似乎不起作用。如何删除所有表并重新开始使用accumulo数据存储? 最佳答案 好吧,我使用命令deletetable-f-pTest.*删除了所有表。这将删除所有前缀为“Test”的表。简而言之,我们可以编写一个脚本来删除所有表。要从accumulo中删除所有hadoop文件