草庐IT

job_sheet

全部标签

hadoop - 为什么我们在 YARN 中配置 mapred.job.tracker?

我所知道的是引入了YARN,它取代了JobTracker和TaskTracker。我看过一些Hadoop2.6.0/2.7.0安装教程,他们将mapreduce.framework.name配置为yarn和mapred.job.tracker属性作为本地或主机:端口。mapred.job.tracker属性的描述是"ThehostandportthattheMapReducejobtrackerrunsat.If"local",thenjobsarerunin-processasasinglemapandreducetask."我的疑问是如果我们使用YARN为什么要配置它,我的意思是J

hadoop - JA017 : Could not lookup launched hadoop Job ID

在Hue中的OozieEditor中提交mapreduce作业时如何解决这个问题?:JA017:无法查找与操作[0000009-150711083342968-oozie-root-W@mapreduce-f660]关联的hadoop作业ID[job_local152843681_0009]。此操作失败!更新:Herearelogfile:2015-07-1504:54:40,304INFOActionStartXCommand:520-SERVER[myserver]USER[root]GROUP[-]TOKEN[]APP[My_Workflow]JOB[0000010-150711

python - 使用 Spark,如何连接 master 或解决错误 :"WARN TaskSchedulerImpl: Initial job has not accepted any resources"

请告诉我如何解决以下问题。首先,我确认以下代码在master为“本地”时运行。然后我启动了两个EC2实例(m1.large)。但是,当master为“spark://MASTER_PUBLIC_DNS:7077”时,会出现错误消息“TaskSchedulerImpl”并且失败。当我从VALID地址更改为Master(spark://INVALID_DNS:7077)的INVALID地址时,会出现相同的错误消息。即,"WARNTaskSchedulerImpl:Initialjobhasnotacceptedanyresources;检查您的集群UI以确保工作人员已注册并有足够的内存"好

python - Hadoop Streaming Job 在 python 中失败

我有一个用Python编写的mapreduce作业。该程序在linuxenv中测试成功,但在Hadoop下运行时失败。这是作业命令:hadoopjar$HADOOP_HOME/contrib/streaming/hadoop-0.20.1+169.127-streaming.jar\-input/data/omni/20110115/exp6-10122-output/home/yan/visitorpy.out\-mapperSessionMap.py-reducerSessionRed.py-fileSessionMap.py\-fileSessionRed.pySession*.

java - Hadoop : Provide directory as input to MapReduce job

我正在使用ClouderaHadoop。我能够运行简单的mapreduce程序,我提供一个文件作为MapReduce程序的输入。此文件包含所有其他要由mapper函数处理的文件。但是,我卡在了一点。/folder1-file1.txt-file2.txt-file3.txt如何将MapReduce程序的输入路径指定为"/folder1",以便它可以开始处理该目录中的每个文件?有什么想法吗?编辑:1)首先,我提供了inputFile.txt作为mapreduce程序的输入。它运行良好。>inputFile.txtfile1.txtfile2.txtfile3.txt2)但是现在,我不想提

hadoop - hadoop job -kill job_id 和 yarn application -kill application_id 有什么区别

hadoopjob-killjob_id和yarnapplication-killapplication_id有什么区别?job_id和application_id是否代表/指代同一个任务? 最佳答案 hadoopjob-killjob_id和yarnapplication-killapplication_id这两个命令都用于终止在Hadoop上运行的作业。如果您正在使用MapReduceVersion1(MRV1)并且您想要终止在Hadoop上运行的作业,那么您可以使用hadoopjob-killjob_id杀死一个工作,它会杀死

scala - Spark : long delay between jobs

所以我们正在运行提取数据并进行一些扩展数据转换并写入几个不同文件的spark作业。一切都运行良好,但我在资源密集型作业完成和下一个作业开始之间出现随机的扩展延迟。在下图中,我们可以看到安排在17:22:02的作业用了15分钟才完成,这意味着我预计下一个作业将安排在17:37:02左右。但是,下一个工作安排在22:05:59,即工作成功后+4小时。当我深入研究下一个作业的sparkUI时,它显示(Spark1.6.1与Hadoop2)更新:我可以确认大卫在下面的回答是关于如何在Spark中处理IO操作的,这有点出乎意料。(考虑到排序和/或其他操作,文件写入本质上是在幕后“收集”是有意义的

hadoop - org.apache.hadoop.mapreduce.Job 的所有三个构造函数都已弃用,构造 Job 类的最佳方法是什么?

全部threeconstructorsoforg.apache.hadoop.mapreduce.Job已弃用,有没有办法以非弃用的方式构建Job类?谢谢。 最佳答案 我会忽略弃用警告并坚持使用“mapred”包,而不是“mapreduce”。这个JIRAMAPREDUCE-1734删除了0.20.3的弃用。 关于hadoop-org.apache.hadoop.mapreduce.Job的所有三个构造函数都已弃用,构造Job类的最佳方法是什么?,我们在StackOverflow上找到一

hadoop - jobconf 和 job 之间的基本区别是什么?

嗨,我想知道jobconf和工作对象之间的基本区别,目前我正在这样提交我的工作JobClient.runJob(jobconf);我看到了像这样提交工作的其他方式Configurationconf=getConf();Jobjob=newJob(conf,"secondarysort");job.waitForCompletion(true);return0;我如何使用jobconf为作业指定sortcomparator类?谁能给我解释一下这个概念? 最佳答案 简而言之:JobConf和org.apache.hadoop.mapre

php - 无法在 Amazon EC2 上设置 cron-job

我有一个AmazonEC2实例(Ubuntu服务器13.04-64位[ami-bf1d8a8f])运行我的网站。我需要设置一个CronJob来每天收到电子邮件提醒。有没有人有任何建议或可能的解决方案?感谢您的宝贵时间。 最佳答案 这与通过命令行在任何其他服务器上设置cron作业一样。通过SSH连接导航到/etc/cron.daily制作一个运行/调用PHP脚本以发送电子邮件/其他任务的新脚本确保其可执行您可以使用诸如wget-q-Otemp.txthttp://www.site.com/cron.php之类的命令来调用PHP脚本,或