草庐IT

elastic-job

全部标签

shell - Oozie Job 仍处于 RUNNING 状态

我正在尝试在HDP集群上运行简单的oozie作业。执行oozie后,job保持Running状态。这是我的Workflow.xml${jobTracker}${nameNode}sqoopimport--connectjdbc:mysql://localhost:3306/test--tabletesting--split-byerr_dt--hive-import--hive-tabletesting-m1hive-site.xmlmysql-connector-java.jarActionfailed以下是正在生成的日志..2015-04-0714:33:32,792INFOAct

hadoop - HDFS 联邦 : Submission of Map Reduce jobs among multiple Name nodes

根据HdfsFederation上的Apache文档,系统可通过多个名称节点的联合进行隔离扩展。多个名称节点/namespace为了横向扩展名称服务,联邦使用多个独立的名称节点/namespace。名称节点是联合的;Namenodes是独立的,不需要相互协调。Datanodes被所有Namenodes用作block的公共(public)存储。我唯一的疑问:我没有看到名称节点之间有任何中央协调器,因为所有节点都在运行隔离。对如何提交和处理作业感到困惑。1)如果我提交一个map-reduce作业,哪个名称节点将处理它?或者2)客户端是否应该知道必须为其提交作业的名称节点?如果客户端不知道哪

c# - MapReduce.SDK : How to wait for MapReduce job?

我正在使用MicrosoftMapReduceSDK启动仅Mapper作业。调用hadoop.MapReduceJob.ExecuteJob立即抛出“响应状态代码不表示成功:404(未找到)”异常。检查HDInsight查询控制台时,作业成功启动并稍后完成。它还会写入正确的输出文件。我的猜测是,ExecuteJob试图在作业完成之前访问输出数据。处理这种情况的正确方法是什么?usingSystem;usingSystem.Linq;usingSystem.Security.Cryptography.X509Certificates;usingMicrosoft.WindowsAzure

amazon-web-services - 亚马逊 S3 错误代码 : 400 while running mr-job on EMR

在EMR上运行自定义jar时出现此错误。Exceptioninthread"main"com.amazon.ws.emr.hadoop.fs.shaded.com.amazonaws.services.s3.model.AmazonS3Exception:BadRequest(Service:AmazonS3;StatusCode:400;ErrorCode:400BadRequest;RequestID:B042BB0B40A75966),S3ExtendedRequestID:vr/DUr8HD3xjomauyzqvVdGuW3fHBP8PDUmTIAoVLUxrmsxh9H+OS

java - mapreduce 中线程 "main"java.io.IOException : Job failed! 中的异常

我是Hadoop的新用户。我从Hadoop初学者指南(GarryTurkington)运行此示例代码,但遇到作业失败的问题。我在我的输出文件夹中没有看到输出文件(部分文件)。我在mapred-site.xml文件中做了很多更改,但我无法解决作业失败的问题。我该怎么办?importjava.io.IOException;importorg.apache.hadoop.conf.*;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.*;importorg.apache.hadoop.mapred.*;importorg.a

AWS EMR 中的 Hadoop : Will closing terminal kill hadoop job?

在不终止我的Hadoop作业的情况下关闭我的终端或关闭我的计算机是否安全?我正在通过AmazonElasticMapReduce上的集群运行Hadoop作业。我打开了我的终端,在那里我通过ssh进入了我的主节点。当我尝试关闭终端时,我收到一条警告,提示所有进程都将被终止。这也会扼杀我的Hadoop工作吗?或者我可以关闭我的计算机并稍后再次使用ssh吗?我是否需要特殊工具(如tmux)来执行此操作?如果重要的话,我在Ubuntu13.10中使用默认的(bin/bash)终端。我从Pig脚本开始这项工作。 最佳答案 不,你可以愉快地杀死

Hadoop MapReduce : Is it possible to only use a fraction of the input data as the input to a MR job?

我的输入数据的关键类是WritableComparable,它以MapFile的形式存在。有没有什么方法可以设置最小和最大键值,并且只将记录传输到键值介于两者之间的映射器? 最佳答案 这是不可能的。因为对于map-reduce作业,我们只是指定输入。我们可以做的一件事是,在映射器中编写一个条件。如果键是黑白最小值和最大值,则只处理键值对并将输出发送到reducer。否则,什么都不做。但即使在这种情况下,我们的map阶段也会处理所有输入,而reduce阶段只会处理我们指定的键范围。更好的方法:当在给定输入上运行map-reduce作业

Hadoop,线程 "main"java.lang.IllegalStateException : Job in state DEFINE instead of RUNNING 中的 MapReduce 自定义 Java 计数器异常

错误是:Exceptioninthread"main"java.lang.IllegalStateException:JobinstateDEFINEinsteadofRUNNINGatorg.apache.hadoop.mapreduce.Job.ensureState(Job.java:294)atorg.apache.hadoop.mapreduce.Job.getCounters(Job.java:762)atcom.aamend.hadoop.MapReduce.CountryIncomeConf.main(CountryIncomeConf.java:41)atsun.re

hadoop - always Hive Job 在进程内运行本地 Hadoop

当我在hive-site.xml中设置这个属性时hive.exec.mode.local.autofalseHive始终在本地运行hadoop作业。Totaljobs=1LaunchingJob1outof1Numberofreducetasksnotspecified.Estimatedfrominputdatasize:55Jobrunningin-process(localHadoop)为什么会这样? 最佳答案 如HIVE-2585中所述,前进Hive将假定metastore在localmode运营如果配置属性hive.met

hadoop - flink streaming job中如何读写HBase

如果我们必须在流式应用程序中读取和写入HBASE,我们该怎么做。我们通过open方法打开连接进行写入,我们如何打开连接进行读取。objecttest{if(args.length!=11){//printargsSystem.exit(1)}valArray()=argsprintln("ParametersPassed"+...);valenv=StreamExecutionEnvironment.getExecutionEnvironmentvalproperties=newProperties()properties.setProperty("bootstrap.servers"