草庐IT

Hadoop-Connector

全部标签

hadoop - Oozie 无法检测 XML 中的 Spark workflow-app 标签

我正在尝试安排每天运行的Oozie作业。在shell中,我正在使用这个命令——ooziejob-oozie$OOZIE_URL-run-verbose\-config$PWD/this_file_is_a_formality.properties\-Doozie.coord.application.path="hdfs:///path/to/file/aggregates_workflow.xml"\-Dstart="$START"\-Dend="$END"(假设所有环境变量都设置正确。)我收到这个错误:错误:E0701:E0701:XML模式错误,cvc-elt.1.a:找不到元素“

hadoop - 如何创建一个在 pig 中嵌套包的输出模式

我正在试用PigUDF,并且一直在阅读它。虽然在线内容很有帮助,但我仍然不确定我是否了解如何创建具有嵌套包的复杂输出模式。求助,需求如下。比方说,我正在分析电子商务订单数据。一个订单中可以订购多个产品。我将产品级别数据分组到订单级别。这是我的UDF的输入。因此,包含每个订单中产品信息的订单级别的每个分组数据都是我的输入。输入模式:(grouped_at_order,{(input_column_values_at_product1_level),(input_column_values_at_product2_level)})我会在UDF中计算订单级别和产品级别的指标。例如:sum(p

scala - 在 Hadoop 上使用 Spark 运行 Scala 程序

我已经创建了一个在文本文件中搜索单词的Scala程序。我用eclipse创建文件scala,然后用sbt和sbtassembly编译并创建一个jar。之后我在本地运行带有Spark的.jar并且它运行正确。现在我想尝试在hadoop上使用Spark运行这个程序,我有1台主机和2台工作机。我必须更改代码?我用主人的外壳做什么命令?我创建了一个存储桶,并将文本文件放入hadoop这是我的代码:importscala.io.Sourceimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importo

hadoop - 带有子查询的查询的 Hive JOIN 需要永远

最近我一直在玩Hive。大多数事情都进展顺利,但是,当我尝试转换类似2015-04-01device1trafficotherstart2015-04-01device1trafficviolationdeny2015-04-01device1trafficviolationdeny2015-04-02device1trafficotherstart2015-04-03device1trafficotherstart2015-04-03device1trafficotherstart进入2015-04-01122015-04-0212015-04-032我尝试使用以下查询,但出于某种原

java - 找不到 Hadoop 作业类

您好,我遇到了麻烦,但我还无法从类似的话题中获得帮助。我正在做一个hadoop作业的例子,我现在只是想从IDE运行它。这是我的源代码packageorg.myorg;importjava.io.IOException;importjava.util.*;importorg.apache.hadoop.io.*;importorg.apache.hadoop.conf.*;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.mapred.*;importorg.apache.hadoop.util.*;publicclassWo

scala - 下面的热烫预处理和后处理将在哪个hadoop节点上运行?

我有下面的example代码,用于在slading作业运行之前进行一些预处理和一些后处理。由于这些预处理和后处理正在调用一些mysql数据库,我想知道hadoop可能会在哪些hadoop节点上运行它们?(我需要打开从这些节点到数据库的端口)它可以运行任何hadoopdata-node的预处理和后处理吗?我尝试做一些研究但找不到任何迹象,如何通过文档/来源找到它将在哪个节点上运行?(PS工作安排在oozie)preProcessingBeforeJobRuns()//**inwhichhadoopnodewouldthisberun?coulditrunonanydatanode?**l

hadoop - 使用Oozie在hbase上创建hive表导致libthrift出错?

我在cloudera(cdh4)上使用ooziehive操作来创建hbasehive表。在我的本地开发工具箱上运行createtable命令没有错误。当我通过集群中的oozie配置单元操作执行相同的命令时,出现此错误:FailingOozieLauncher,Mainclass[org.apache.oozie.action.hadoop.HiveMain],main()threwexception,org.apache.thrift.EncodingUtils.setBit(BIZ)Bjava.lang.NoSuchMethodError:org.apache.thrift.Enco

hadoop - 在 hive 表下看不到 HDFS 文件中的数据

我必须从oracle表中的数据创建一个配置单元表。我正在做一个sqoop,从而将oracle数据转换为HDFS文件。然后我在HDFS文件上创建一个配置单元表。sqoop成功完成,文件也在HDFS目标目录中生成。然后我在配置单元中运行创建表脚本。表被创建。但它是一个空表,hive表中没有看到任何数据。有人遇到过类似的问题吗? 最佳答案 Hive默认分隔符是ctrlA,如果你没有指定任何分隔符,它将采用默认分隔符。在您的配置单元脚本中添加以下行。以'\t'结尾的行格式分隔字段 关于hadoo

超详细手把手教你部署全分布模式Hadoop集群

 1. Hadoop集群部署规划      全分布模式下部署Hadoop集群时,最低需要两台机器,一个主节点和一个从节点。本书拟将Hadoop集群运行在Linux上,将使用三台安装有Linux操作系统的机器,主机名分别为hadoop_base、hadoop_copy1、hadoop_copy2,其中hadoop_base作为主节点,hadoop_copy1和hadoop_copy2作为从节点。具体Hadoop集群部署规划表如表1-2所示。2.准备机器。编者使用VMwareWorkstationPro共安装了3台CentOS虚拟机,分别为hadoop_base、hadoop_copy1、hado

hadoop - DSE 4.7 中奇怪的 dse hive 集成

我正在尝试对现有的C*表运行Hive查询。这是我的C*表定义:droptableIFEXISTSmydata.site_users;CREATETABLEIFNOTEXISTSappdata.site_users(user_idtext,user_test_uuiduuid,--fortestingpurposes,ifwecanuseitinqueries,therecouldbesomeserdeproblems?user_nametext,PRIMARYKEY(user_id));这是我的外部配置单元表定义:CREATEEXTERNALTABLEc_site_users(user