草庐IT

Elastic-Job

全部标签

java - 如果 mapred.job.reuse.jvm.num.tasks 设置为 -1,则 hadoop 集群中每个节点启动了多少个 jvm

我最近看到了hadoop的mapred.job.reuse.jvm.num.tasks属性。默认情况下,它设置为+1,这意味着每个map/reduce任务都会启动一个新的JVM。相反,如果它设置为-1,那么一个jvm可以被无限数量的任务使用。在这种情况下,任务依次执行以使用相同的JVM。因此,当该属性设置为+1时,每个节点启动的JVM数量等于任务数量。没有混淆....但是,我的具体问题是,如果我将mapred.job.reuse.jvm.num.tasks设置为-1,每个节点将启动多少个JVM。每个节点只有一个JVM吗?还是别的? 最佳答案

java - Job提交前如何分发jar到hadoop

我想实现RESTAPI来提交Hadoop作业以供执行。这完全是通过Java代码完成的。如果我编译一个jar文件并通过“hadoop-jar”执行它,一切都会按预期进行。但是当我在我的RESTAPI中通过Java代码提交Hadoop作业时-作业已提交但由于ClassNotFoundException而失败。是否可以以某种方式将jar文件(使用我的作业代码)部署到hadoop(nodemanagers及其容器),以便hadoop能够按类名定位jar文件?我应该将jar文件复制到每个节点管理器并在那里设置HADOOP_CLASSPATH吗? 最佳答案

hadoop - Spark 流 "ERROR JobScheduler: error in job generator"

我构建了一个sparkStreaming应用程序来持续接收来自Kafka的消息,然后将它们写入表HBase。此应用在前25分钟内运行良好。当我在Kafka-console-producer中输入1;name1,2;name2这样的KV对时,它们可以保存在Hbase表中:ROWCOLUMN+CELL1column=cf1:column-Name,timestamp=1471905340560,value=name12column=cf1:column-Name,timestamp=1471905348165,value=name2但是大约25分钟后,我的应用停止并出现错误ERRORJob

scala - 卡夫卡+ Spark 流: Multi topic processing in single job

Kafka中有40个主题和编写的SparkStreaming作业,每个主题处理5个表。sparkstreaming作业的唯一目标是读取5个kafka主题并将其写入相应的5个hdfs路径。大多数时候它工作正常,但有时它会将主题1数据写入其他hdfs路径。下面的代码试图归档一个sparkstreaming作业来处理5个主题并将其写入相应的hdfs,但是这个将主题1数据写入HDFS5而不是HDFS1。请提供您的建议:importjava.text.SimpleDateFormatimportorg.apache.kafka.common.serialization.StringDeseria

hadoop - Hadoop job怎么会自己kill掉

有什么方法可以终止Hadoop作业本身或发送信号来终止它。我已经从jobConf中读取了配置设置,它说如果用户指定了错误的设置我需要终止作业或抛出错误,因为map/reduceconfig方法不允许抛出异常.publicvoidconfigure(JobConfjob){System.out.println("Insideconfigstartprocessing");try{StringstrFileName=job.get("hadoop.rules");LoadFile(strFileName);}catch(Exceptione){e.printStackTrace();//H

hadoop - 在 AWS Elastic Map Reduce 中禁用 Gzip 输入解压缩

我正在Gzipped.arc文件上运行MapReduce任务。类似于此question,我遇到了困难,因为Gzip解压缩是自动运行的(因为文件有.gz扩展名),但它导致换行符/回车符按照Unix文件编码被渲染为换行符的问题。这使得输入完全不可读,因为它取决于文件中嵌入的特定字符数。我正在尝试禁用Gzip解压缩,以便我可以在我的映射器中正确地执行它。我试过:-jobconfstream.recordreader.compression=none但这似乎并不影响压缩。有什么方法可以防止对我的输入进行Gzip解压缩?谢谢,-Geoff 最佳答案

hadoop - (Sqoop-import) 错误 tool.ImportTool : Encountered IOException running import job: java. io.IOException:Hive 以状态 9 退出

当我输入命令时:./sqoop-import--connectjdbc:mysql://localhost/sqoop2-tablesqeep2-m1-hive-import当执行这条命令时:hadoop@dewi:/opt/sqoop/bin$./sqoop-import--connectjdbc:mysql://localhost/sqoop2-tablesqeep2-m1-hive-import12/06/2010:00:44INFOtool.BaseSqoopTool:UsingHive-specificdelimitersforoutput.Youcanoverride12/

hadoop - 当 mapred.job.shuffle.input.buffer.percent=0.70 时,pig join 在 reducer 中出现 OutOfMemoryError

我们正在一个小表和一个大倾斜表之间进行简单的pig连接。由于另一个错误(pigskewedjoinwithabigtablecauses"Splitmetadatasizeexceeded10000000"),我们无法使用"usingskewed":(如果我们使用默认的mapred.job.shuffle.input.buffer.percent=0.70我们的一些reducer在shuffle阶段会失败:org.apache.hadoop.mapred.Task:attempt_201305151351_21567_r_000236_0:Mapoutputcopyfailure:ja

java - 哈多普。如何从 Mapper 获取 Job

我是Hadoop的新手。这次我实现了输入关键字的字数计数器。我还读到使用Job类比JobConf更好。所以我有主类的代码:...Configurationconf=newConfiguration();conf.set("keyword",args[0]);Jobjob=newJob(conf);...那么我如何才能在Mapper中取回我的关键字呢?据我了解,我需要获取我的Job对象,并使用getConfiguration()方法从Job获取Configuration对象,并且而不是调用get("keyword")方法。但是我需要如何从Mapper类中获取Job呢?感谢您的宝贵时间。

hadoop - 我需要在oozie的workflow.xml和job.properties中提供配置吗?

我正在尝试运行这样的作业(workflow.xml)hadoop1:50300hdfs://hadoop1:8020lib/FirstScript.pigActionfailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]第一个脚本:dual=LOAD'default.dual'USINGorg.apache.hcatalog.pig.HCatLoader();storedualinto'/user/oozie/dummy_file.txt'usingPigStorage();工作属性:nameNode=hdfs://had