草庐IT

Elastic-Job

全部标签

apache-spark - 在 rapidminer : error occurred during submitting or starting the spark job 上运行 Spark

我正在使用rapidminer从大型数据集中提取规则。Radoop是hadoop生态系统的扩展,而sparkRM运算符允许进行fp-growth,从从hive检索数据到探索分析。我正在尝试:-Windows8.1-hadoop6.2-Spark1.5-hive2.1我已将spark-default-conf配置如下:#spark.masteryarn#spark.eventLog.enabledtrue#spark.eventLog.dirhdfs://namenode:8021/directory#spark.serializerorg.apache.spark.serializer

hadoop - org.apache.kylin.job.exception.ExecuteException : java. lang.NoClassDefFoundError: org/apache/hadoop/hive/serde2/typeinfo/TypeInfo 问题

我在https://issues.apache.org/jira/browse/KYLIN-2511上发现了类似的错误环境:hadoop-2.7.1hbase-1.3.2apache-hive-2.1.1-binapache-kylin-1.6.0-hbase1.x-bin我已经尝试将所有的hive库复制到kylin,但是又出现了另一个错误。org.apache.hadoop.mapred.YarnChild:Errorrunningchild:java.lang.NoClassDefFoundError:org/apache/hadoop/hive/serde2/typeinfo/T

ruby - 您能否以编程方式轻松控制 Elastic Mapreduce 作业?

有一个用ruby​​编写的命令行客户端用作标准。但是,它不会在1.9中运行。还有一个非常好的ruby​​aws-sdk,但它不支持EMR。有更好的选择吗? 最佳答案 2012年6月22日更新:亚马逊正在审查@nkadwa的拉取请求(见上文)。请留意这一点。我一直在使用Ruby命令行客户端,但我构建的许多基于Ruby/Rails的工具需要ruby​​1.9.3。我的解决方法是RVM.假设您有$HOME/projects/elastic-mapreduce,其中有EMRRuby客户端假设您还有$HOME/projects/myproj您

java - AWS Elastic Map Reduce 中线程 "main"java.lang.NoClassDefFoundError 中的异常

我正在尝试使用JAR文件在AWSElasticMapReduce上运行hadoop作业。我正在使用一个名为EJMLhttps://code.google.com/p/efficient-java-matrix-library/wiki/EjmlManual的库.我使用project-->BuildPath-->ConfigureBuildPath-->AddExtrenalJarsinEclipse将它作为外部库包含在我的项目中。当我在本地计算机上运行该项目时,一切都很好。但是在AWS上我得到了错误,Exceptioninthread"main"java.lang.NoClassDef

java - (Hadoop) : reduce method is not getting executed/called while running mapreduce job

我在执行我的mapreduce作业时遇到问题。作为我的mapreduce任务的一部分,我正在使用mapreduce连接,其中包括多个map方法和单个reducer方法。我的两个map方法都被执行了,但是我的reducer没有被我的驱动程序类执行/调用。因此,最终输出只有在我的map阶段收集的数据。我是否在reduce阶段使用了错误的输入和输出值?map和reduce阶段是否存在输入输出不匹配?在这方面帮助我。这是我的代码..publicclassCompareInputTestextendsConfiguredimplementsTool{publicstaticclassFirstF

hadoop - 在哪里设置配置mapreduce.job.jvm.numtasks?

我在一本书(ProfessionalHadoopSolutions)中读到,可以通过指定作业配置mapreduce.job.jvm.numtasks来启用JVM重用。我的问题是我们需要在Driver类中设置它吗?我尝试在mapreduce.Job对象中查找此配置,但没有找到。这个API可以在我使用的Hadoop版本的其他地方被替换吗?还是我没有找对地方?我使用的是Hadoop版本1.0.3。我还尝试寻找旧属性mapred.job.reuse.jvm.num.tasks,但我找不到。谢谢! 最佳答案 您的来源指的是更新的Hadoop2

hadoop - MapReduce Job 中的排序在哪里完成?

当我们编写程序时,HadoopMapreduceJobs中的排序在哪里完成?我发现在我的计划中前进有困难。 最佳答案 排序由HadoopMapReduce框架完成。映射器输出传递给缩减器的中间(键,值)对。每个reducer都按排序顺序获取所有键。插图:假设使用了2个映射器:--mapper1outputkey_a,value_a1key_b,value_b2key_c,value_c1key_d,value_d2--mapper2outputkey_a,value_a2key_b,value_b1key_d,value_d1key

尝试在 Elastic MapReduce 上运行 Jar 作业时出现 java.lang.RuntimeException : java. lang.ClassNotFoundException

我应该更改什么来修复以下错误:我正在尝试在ElasticMapreduce上开始一项工作,但它每次都崩溃并显示以下消息:java.lang.RuntimeException:java.lang.ClassNotFoundException:iataho.mapreduce.NewMaxTemperatureMapperatorg.apache.hadoop.conf.Configuration.getClass(Configuration.java:831)atorg.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContex

hadoop - map() 函数的调用次数与 MR Job 发出的 map 任务数之间的关系

我写了一个MR程序来估计PI(3.141592.........)如下,但是我遇到了一个问题:框架发出的map任务数是11,下面是输出(总共35行)。但我预计输出是11行。有什么我想念的吗?圆圈78534096围圈78539304圈子78540871围圈78537925圈子78537161圈子78544419围圈78537045圈子78534861圈子78545779圆圈78528890围圈78540007围圈78542686圈子78534539圈子78538255圈子78543392圈子78543191围圈78540938圈子78534882围圈78536155圈子78545739围

hadoop - Mapreduce 配置 : mapreduce. job.split.metainfo.maxsize

我想了解属性mapreduce.job.split.metainfo.maxsize及其效果。描述说:Themaximumpermissiblesizeofthesplitmetainfofile.TheJobTrackerwon'tattempttoreadsplitmetainfofilesbiggerthantheconfiguredvalue.Nolimitsifsetto-1.“拆分元信息文件”包含什么?我读过它将存储有关输入拆分的元信息。输入拆分是对block的逻辑包装以创建完整记录,对吗?拆分元信息是否包含可能在多个block中可用的实际记录的block地址?