草庐IT

job_sheet

全部标签

java - 从节点可以运行Hadoop Map/Reduce Job吗?

我在两个节点(主节点和从节点)上安装了Hadoop。我会问我是否可以从从机运行Map/Reduce作业或从从机使用HDFS。从主节点运行map/reduce作业没有问题,但是当我尝试从从节点运行Map/Reduce作业时,出现以下错误。Java.net.connectionException因连接异常而失败。 最佳答案 只要每个节点都配置了正确的jobtracker位置属性,您就可以从集群中的任何机器运行作业。事实上,您可以在任何机器上运行作业,包括您的个人台式机或笔记本电脑,只要您连接到服务器(也就是说,没有防火墙挡在您的路上)并

xml - Job Tracker 和 Task Tracker 没有在 Hadoop 中运行?

在我的hadoop安装中,我没有找到mapred-site.xml文件,但它有mapred-site.xml.template。我已将以下属性添加到mapred.xml.templatemapred.job.trackerlocalhost:9001我错过了什么吗?核心站点.xmlfs.default.namehdfs://localhost:9000hdfs-site.xmldfs.replication1使用这些配置:http://localhost:50070/:Runninghttp://localhost:50060/:NotRunninghttp://localhost:5

timeout - 如何将进度报告给Hadoop Job,避免Task超时被杀?

1)我有一个仅映射的Hadoop作业,它将数据流式传输到Cassandra集群。2)有时流式传输需要超过10分钟,并且由于没有向作业报告进度,它会终止任务。3)我尝试使用context.progress()方法报告进度,但没有帮助。是否还需要向hadoop作业报告进度?我已经编写了如下示例代码来模拟该问题并使用以下代码。Thread.sleep(360000);context.progress();Thread.sleep(360000);失败并显示以下错误消息12/02/0611:40:25INFOmapred.JobClient:TaskId:attempt_20120206111

Hadoop MultipleOutputFormat 支持 org.apache.hadoop.mapreduce.Job

我是Hadoop的新手!现在我正在尝试将MultipleOutputFormat与hadoop2.2.0一起使用,但它们似乎只适用于已弃用的“JobConf”,而后者又使用已弃用的Mapper和Reducer(org.apache.hadoop.mapred.Reducer)等。关于如何使用新的“org.apache.hadoop.mapreduce.Job”实现多个输出功能有什么想法吗? 最佳答案 正如@JudgeMental指出的那样,您应该将MultipleOutputs与新API(mapreduce)一起使用,因为Multi

oracle - 异常 : Job Failed with status:3 when copying data from Oracle to HDFS through sqoop2

我正在尝试使用Sqoop2将数据从Oracle11g2服务器复制到HDFS。Oracle的链接似乎有效,因为如果我使用无效的凭据,它会提示。定义如下:linkwithid14andnameOLink(Enabled:true,Createdbyxxxat2/9/162:48PM,Updatedbyxxxat2/11/1610:08AM)UsingConnectorgeneric-jdbc-connectorwithid4LinkconfigurationJDBCDriverClass:oracle.jdbc.driver.OracleDriverJDBCConnectionString

hadoop - 我收到 CDH4.0 错误 "The method addCacheFile(URI) is undefined for the type Job"

我遇到了错误ThemethodaddCacheFile(URI)isundefinedforthetypeJob使用CDH4.0时尝试调用addCacheFile(URIuri)方法,如下图:importjava.net.URI;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.

java - Job 类型中的方法 setPartitionerClass(Class<?extendsPartitioner>) 不适用于参数 (Class<WordCountPartitioner>)

我的司机代码:importorg.apache.hadoop.conf.Configured;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;importorg.apache.hadoop.mapreduce.lib.output.Fil

python - Hadoop 模式下的 Mrjob : Error launching job , 输入路径错误:文件不存在

我正在尝试运行Mrjobexample来self笔记本电脑上的HadoopwithPython一书,采用伪分布式模式。(文件salaries.csv可以找到here)所以我可以启动名称节点和数据节点:start-dfs.sh返回:Startingnamenodeson[localhost]localhost:startingnamenode,loggingto/home/me/hadoop-2.7.3/logs/hadoop-me-namenode-me-Notebook-PC.outlocalhost:startingdatanode,loggingto/home/me/hadoop

java - 无法在 Oozie java 操作中设置 mapred.job.queue.name

我有一个运行紧迫作业的应用程序。我正在尝试将Oozie配置为使用Java操作运行此作业。我的操作如下,${jobTracker}${nameNode}mapred.job.queue.namelaunchercom.test.Main-Dmapred.output.compress=false-Dmapred.textoutputformat.separator=,-Dcrunch.disable.output.counters=trueActionfailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]但每次我运行Oozi

【Flink系列二】如何计算Job并行度及slots数量

接上文的问题并行的任务,需要占用多少slot?一个流处理程序,需要包含多少个任务首先明确一下概念slot:TM上分配资源的最小单元,它代表的是资源(比如1G内存,而非线程的概念,好多人把slot类比成线程,是不恰当的)任务(task):线程调度的最小单元,和java中的类似。---------------------------------------------------------------------------为更好的去理解后面如何计算并行度及需要的slots数量,先介绍一下几个概念并行度(Parallelism)图1 一个特定算子的子任务(subtask)的个数被称之为并行度(p