草庐IT

hadoop-examples

全部标签

hadoop - 由于 UTC 时间, hive 中的日期转换问题

我有时间2017-05-04T23:25:23.234Z我想使用HIVE获取2017-05-0423:25:23.234。如何实现这一目标?实际数据-2017-05-04T23:25:23.234Z预期-2017-05-0423:25:23.234实际数据-2016-05-04T02:29:23.231234Z预期-2016-05-0402:29:23.231234请帮帮我 最佳答案 selecttranslate('2017-05-04T23:25:23.234Z','TZ','')2017-05-0423:25:23.234

hadoop - Impala - 替换表分区中的所有数据

我有一个程序可以生成有关Impala表分区的所有数据。该程序将数据写入HDFS文本文件。如何(物理地)删除以前属于该分区的所有数据,并用转换为Parquet格式的新文本文件中的数据替换它们?如果我使用原始HDFSAPI物理删除组成分区的旧Parquet文件,它会干扰Impala吗? 最佳答案 为您的文本文件创建表格:createexternaltablestg_table(...)location'';外部数据更改后,您必须刷新它:refreshstg_table;然后插入你的目标表insertoverwritetabletarge

hadoop - 在 Cloudera Quickstart VM 中导入所有表时在 Sqoop 中出现错误

当我尝试通过sqoop导入所有表时出现以下错误:sqoopimport-all-tables-m12--connect在此处输入代码"jdbc:mysql://quickstart.cloudera:3306/retail_db"--username=retail_dba--password=cloudera--warehouse-dir=/r/cloudera/sqoop_importPleaseset$ACCUMULO_HOMEtotherootofyourAccumuloinstallation.17/04/2315:29:27INFOsqoop.Sqoop:RunningSqo

hadoop - 我如何使用 boto3 在现有的 emr 集群上应用安全配置?

我是awsemr服务的新手。我正在尝试使用boto3向已创建的emr集群添加安全配置。请回复是否可以这样做,或者是否有任何替代解决方案来实现相同的目标 最佳答案 SpecifyingAmazonEMREncryptionOptionsUsingaSecurityConfiguration文档页面说:Usingasecurityconfigurationtospecifyclusterencryptionsettingsisatwo-stepprocess.First,youcreateasecurityconfiguration,w

hadoop - 将制表符分隔格式的 txt 文件加载到 Hbase 中

我正在尝试将制表符分隔的文件加载到hbase中。我收到屏幕截图中提到的错误,请指教。文件内容:21/1/160:291/1/160:3921/1/160:191/1/160:3921/1/160:191/1/160:3921/1/160:221/1/160:3821/1/160:241/1/160:3921/1/160:321/1/160:39查询:hbaseorg.apache.hadoop.hbase.mapreduce.ImportTsv-Dimporttsv.columns=HBASE_ROW_KEY,id,date:c1,date:c2sample1hdfs://localh

hadoop - 无法使用具有不同分隔符的 Sqoop 从 MySql 导入数据

作为Hadoop领域的初学者,我正在尝试使用Sqoop工具(版本:Sqoop1.4.6-cdh5.8.0)。虽然我引用了各种网站和论坛,但我无法找到可行的解决方案,我可以使用,以外的任何其他分隔符导入数据。PFB我用过的代码:---连接MySql,在字符串中用,创建表和记录。mysql>createdatabaseGRHadoop;QueryOK,1rowaffected(0.00sec)mysql>useGRHadoop;Databasechangedmysql>Createtablesitecustomer(Customeridint(10),Customernamevarchar

validation - 使用 Kafka 和 Hadoop 进行数据摄取——如何避免质量检查失败导致的数据重复?

这是一个简化的场景:N个业务流程需要来自同一来源的相同原始数据。数据使用Kafka(正常的Kafka管道)提取并登陆HDFS,在HDFS中,每个流的原始数据都会触发自动质量检查流。所有N个流可能具有不同的数据质量标准。例如,他们可能需要在将原始数据转换为所需模式时将不同格式的日期和时间应用于原始数据。处理未能满足业务流程质量测试的KPI的最佳方法是什么?选项是:全部失败-通知源数据提供者并等待修复数据。然后重新摄取并运行所有N组质量检查。创建一个分支——意味着N个业务流中的K个没有通过质量检查将等待他们的固定数据集,而通过的N-K将适用于当前数据集。标记未通过某些业务流程质量检查的条目

hadoop - 如何删除所有 accumulo 表或为 accumulo 格式化 hadoop 文件

我想为我的本地机器清除accumulo中的所有记录,并想删除在测试时创建的未使用的表。我发现可以从accumuloshell使用deletetable命令,但是这将需要大量手动工作来删除大量表。我也试过instructions格式化hadoop的名称节点,但这似乎不起作用。如何删除所有表并重新开始使用accumulo数据存储? 最佳答案 好吧,我使用命令deletetable-f-pTest.*删除了所有表。这将删除所有前缀为“Test”的表。简而言之,我们可以编写一个脚本来删除所有表。要从accumulo中删除所有hadoop文件

java - Hadoop 文件开头附加的奇怪字符

每当我使用Java在Hadoop中创建一个新文件并写入内容时,都会在文件开头附加特殊字符。有办法消除吗?下面是代码TransformerFactorytf=TransformerFactory.newInstance();Transformertransformer=tf.newTransformer();transformer.setOutputProperty(OutputKeys.OMIT_XML_DECLARATION,"yes");transformer.setOutputProperty(OutputKeys.METHOD,"xml");transformer.setOut

hadoop - Hive 分区/分桶表的实际结构是什么?

我无法在虚拟框中配置多数据节点集群不考虑复制因子取1。假设我有一个10GB的文件和一个具有2个不同值的列城市,并且我有2个数据节点。想按城市划分数据。我还将在每个分区的2个桶中存储邮政编码。我的问题是每个分区是否会出现在每个数据节点中,或者每个节点将只有不同的分区。我的理解是每个节点都有所有分区,但在某些节点中,由于数据文件中的值不足,分区可能不存在。每个数据节点中的每个分区都将按邮政编码分桶,并且某些分桶可能没有值。 最佳答案 分区是使用目录实现的。目录包含文件。可能是一个,也可能是很多。桶是使用文件实现的。一个桶可能与一个文件相