草庐IT

Power-job

全部标签

hadoop - org.apache.kylin.job.exception.ExecuteException : java. lang.NoClassDefFoundError: org/apache/hadoop/hive/serde2/typeinfo/TypeInfo 问题

我在https://issues.apache.org/jira/browse/KYLIN-2511上发现了类似的错误环境:hadoop-2.7.1hbase-1.3.2apache-hive-2.1.1-binapache-kylin-1.6.0-hbase1.x-bin我已经尝试将所有的hive库复制到kylin,但是又出现了另一个错误。org.apache.hadoop.mapred.YarnChild:Errorrunningchild:java.lang.NoClassDefFoundError:org/apache/hadoop/hive/serde2/typeinfo/T

hadoop - 如何为高优先级处理预留 yarn 容器 - pig jobs

我使用hadoop2.4.1和Yarn处理pig作业。我的一些Pig作业是高优先级的(它们应该在20分钟内运行)。我正在寻找PIG或YARN选项来为我的高优先级工作保留yarn容器。有办法吗?现在,我总是依赖于其他正在运行的作业,并且根据作业的大小,我的优先作业可能会等待数小时。谢谢,罗曼 最佳答案 您可以为此使用FairScheduler。FairScheduler将您的应用组织成“队列”,然后在这些队列之间公平地共享资源。除了提供公平共享外,它还允许为队列分配有保证的最小份额,这有助于确保某些队列始终获得足够的资源。您还可以为不

hadoop - 在 CDH 4.7 中设置 share_jobs 的 hue.ini 位置

我正在尝试设置描述的share_jobs设置HERE为false。文档HERE说要访问http://myserver:port/dump_config以查找HUE配置的位置。对我来说,它提供了/var/run/cloudera-scm-agent/process/73-hue-HUE_SERVER/。正如您可能从它在/var/run/中猜到的那样,每次启动时都会重新创建该目录,因此不会保存对hue.ini的更改并执行似乎不会影响http://myserver:port/dump_config中列出的配置。我运行了find/-namehue.ini以查看是否还有另一个要更改的hue.in

java - (Hadoop) : reduce method is not getting executed/called while running mapreduce job

我在执行我的mapreduce作业时遇到问题。作为我的mapreduce任务的一部分,我正在使用mapreduce连接,其中包括多个map方法和单个reducer方法。我的两个map方法都被执行了,但是我的reducer没有被我的驱动程序类执行/调用。因此,最终输出只有在我的map阶段收集的数据。我是否在reduce阶段使用了错误的输入和输出值?map和reduce阶段是否存在输入输出不匹配?在这方面帮助我。这是我的代码..publicclassCompareInputTestextendsConfiguredimplementsTool{publicstaticclassFirstF

hadoop - 在哪里设置配置mapreduce.job.jvm.numtasks?

我在一本书(ProfessionalHadoopSolutions)中读到,可以通过指定作业配置mapreduce.job.jvm.numtasks来启用JVM重用。我的问题是我们需要在Driver类中设置它吗?我尝试在mapreduce.Job对象中查找此配置,但没有找到。这个API可以在我使用的Hadoop版本的其他地方被替换吗?还是我没有找对地方?我使用的是Hadoop版本1.0.3。我还尝试寻找旧属性mapred.job.reuse.jvm.num.tasks,但我找不到。谢谢! 最佳答案 您的来源指的是更新的Hadoop2

hadoop - MapReduce Job 中的排序在哪里完成?

当我们编写程序时,HadoopMapreduceJobs中的排序在哪里完成?我发现在我的计划中前进有困难。 最佳答案 排序由HadoopMapReduce框架完成。映射器输出传递给缩减器的中间(键,值)对。每个reducer都按排序顺序获取所有键。插图:假设使用了2个映射器:--mapper1outputkey_a,value_a1key_b,value_b2key_c,value_c1key_d,value_d2--mapper2outputkey_a,value_a2key_b,value_b1key_d,value_d1key

hadoop - map() 函数的调用次数与 MR Job 发出的 map 任务数之间的关系

我写了一个MR程序来估计PI(3.141592.........)如下,但是我遇到了一个问题:框架发出的map任务数是11,下面是输出(总共35行)。但我预计输出是11行。有什么我想念的吗?圆圈78534096围圈78539304圈子78540871围圈78537925圈子78537161圈子78544419围圈78537045圈子78534861圈子78545779圆圈78528890围圈78540007围圈78542686圈子78534539圈子78538255圈子78543392圈子78543191围圈78540938圈子78534882围圈78536155圈子78545739围

hadoop - Mapreduce 配置 : mapreduce. job.split.metainfo.maxsize

我想了解属性mapreduce.job.split.metainfo.maxsize及其效果。描述说:Themaximumpermissiblesizeofthesplitmetainfofile.TheJobTrackerwon'tattempttoreadsplitmetainfofilesbiggerthantheconfiguredvalue.Nolimitsifsetto-1.“拆分元信息文件”包含什么?我读过它将存储有关输入拆分的元信息。输入拆分是对block的逻辑包装以创建完整记录,对吗?拆分元信息是否包含可能在多个block中可用的实际记录的block地址?

macos - 使用 hadoop-0.19.1 在我的 osx 上运行示例应用程序时出现 java.io.IOException : Job failed!

bash-3.2$echo$JAVA_HOME/System/Library/Frameworks/JavaVM.framework/Versions/1.6/Homebash-3.2$bin/hadoopdfs-copyFromLocalconf/user/yokkom/input2bash-3.2$bin/hadoopjarhadoop-*-examples.jargrepinput2output'dfs[a-z.]+'09/04/1710:09:32INFOmapred.FileInputFormat:Totalinputpathstoprocess:1009/04/1710:0

apache - 哈多普 : supporting multiple outputs for Map Reduce jobs

似乎Hadoop(reference)支持它,但我不知道如何使用它。我想:a.)Map-ReadahugeXMLfileandloadtherelevantdataandpassontoreduceb.)Reduce-writetwo.sqlfilesfordifferenttables为什么我选择map/reduce是因为我必须对驻留在磁盘上的超过100k(可能更多)xml文件执行此操作。欢迎大家提出更好的建议感谢任何解释如何使用它的资源/教程。我正在使用Python并且想学习如何使用streaming实现这一点谢谢 最佳答案 这