草庐IT

Elastic-Job

全部标签

amazon-web-services - 登录 Elastic Mapreduce 的最佳实践 - AWS

我计划将AmazonEMR用于SparkStreaming应用程序。亚马逊提供了一个很好的界面来显示标准错误和Controller日志。但是对于流式应用程序,我不确定如何管理日志。亚马逊将数据记录到/var/log/hadoop/steps/和Spark的类似地方。http://docs.aws.amazon.com/ElasticMapReduce/latest/DeveloperGuide/emr-manage-view-web-log-files.html我想知道我们如何轮换日志并且仍然可以通过awsemrWeb界面访问。我们可以通过配置hadoop-log4j轻松更改日志轮换策

macos - 使用 hadoop-0.19.1 在我的 osx 上运行示例应用程序时出现 java.io.IOException : Job failed!

bash-3.2$echo$JAVA_HOME/System/Library/Frameworks/JavaVM.framework/Versions/1.6/Homebash-3.2$bin/hadoopdfs-copyFromLocalconf/user/yokkom/input2bash-3.2$bin/hadoopjarhadoop-*-examples.jargrepinput2output'dfs[a-z.]+'09/04/1710:09:32INFOmapred.FileInputFormat:Totalinputpathstoprocess:1009/04/1710:0

python - 具有二进制可执行文件的 Hadoop/Elastic Map Reduce?

我正在使用hadoop流、python、matlab和elasticmapreduce编写分布式图像处理应用程序。我已经使用matlab编译器编译了我的matlab代码的二进制可执行文件。我想知道如何将其合并到我的工作流程中,以便二进制文件成为Amazon的弹性mapreduce处理的一部分?看来我必须使用Hadoop分布式缓存?代码非常复杂(而且不是我写的)所以现在不可能将它移植到另一种语言。谢谢 最佳答案 以下内容并不完全是对您的Hadoop问题的回答,但我忍不住要问您为什么不在Grid资源上执行处理作业?有用于在网格上执行计算

hadoop - 有人在 hadoop 流媒体作业中使用过 mapred.job.tracker=local 吗?

在过去的几周里,我们每天都使用hadoopstreaming来计算一些报告。最近我们对我们的程序进行了更改,如果输入大小小于10MB,我们将在JobConf中设置mapred.job.tracker=local,然后作业将在本地运行。但是昨晚,许多作业都失败了,runningJob.getJobState()返回了状态3。我不知道为什么,stderr里什么也没有。我无法用谷歌搜索与此问题相关的任何内容。所以我想知道我是否应该在生产模式下使用mapred.job.tracker=local?也许它只是hadoop提供的开发中的调试解决方案。有人知道吗?任何信息,任何信息,谢谢。

hadoop - 为什么hadoop jobtracker reducer进度条不能达到100%,但是这个job已经完成了

我使用hadoop0.20.0在4个节点的集群上运行一个程序。但是,当我查看jobtracker:50030时,发现hadoopjobtrcker显示reducer进度条无法达到100%,但是jobs已经成功完成。截图如下。我真的很好奇为什么会这样。但是,我的工作已成功完成。 最佳答案 这看起来像是获取进度报告的jobtracker中的错误。然而,由于Hadoop0.20.0于2009年发布并且有quiteafewreleasessincethen-这是一个有争议的问题 关于hadoop

hadoop - 运行 pig 脚本给出错误 : job has failed. Stop running all dependent jobs

我需要帮助来了解为什么在运行pig脚本时出现错误。但是当我在较小的数据中尝试相同的脚本时,它会成功执行。有几个类似问题的问题,但没有一个有解决方案。我的脚本是这样的:A=load‘test.txt’usingTextLoader();B=foreachAgenerateSTRSPLIT($0,’”,”’)ast;C=FILTERBBY(t.$1==2andt.$2matches‘.*xxx.*’);StoreCintotemp;错误是:org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLaunch

hadoop - 如何让Hadoop Pig Job更可靠?

我有一个pig作业,计划每天通过Hadoop作业调度程序运行。它有时工作得很好,但偶尔会因以下错误而失败。每天它都会报告不同的失败原因。第一天:Error:java.io.IOException:Nospaceleftondevice第2天:ENOENT:Nosuchfileordirectory第三天:Losttasktracker:tracker_bos-hadoop14.co.com:localhost/127.0.0.1:48865第4天:Losttasktracker:tracker_bos-hadoop11.co.com:localhost/127.0.0.1:46408请

shell - 如何使用 Shell 脚本修改 job.properties 文件并运行 Oozie 脚本?

我有一个Oozie工作流程,本质上是1.SqoopsfromOracletoHDFS2.RunsMapReduceontheData3...我希望能够运行一个shell脚本来传递一个用于Sqoop操作的where子句。./run.sh"birth_date我希望将参数传递给配置OozieSqoop参数的job.properties文件,该参数传递给工作流。执行此操作的最佳方法是什么? 最佳答案 如果我没理解错的话,你可以有一个job.properties_template文件,其中有一行sqoop-where-arg=WHERE_P

hadoop - Amazon Elastic MapReduce 在主节点上完成引导操作,但在核心节点上挂起

我在1个主节点和25个核心节点上运行AmazonElasticMapReduce(EMR)作业。引导操作在主节点上完成,但它们卡在核心节点上。构成map步骤的约5000个(共5200个)任务随后被报告为“正在运行”,而其余任务则为“待定”。然而,因为核心节点挂起,实际上没有任何东西在运行;我可以说是因为没有写入中间输出。大约30分钟后,所有之前“正在运行”的任务都被标记为“killed_unclean”并转为“待处理”。几分钟后,核心节点上的引导操作完成,但没有任何任务从“待定”状态转变为“运行状态”。当我使用2个核心节点而不是25个核心节点运行作业时,不会出现此问题;任务按预期完成。

hadoop - 在 Amazon Web Services 上的 Elastic MapReduce 上定义一个 HDFS 文件

我开始在HadoopMapReduce框架上实现KMeans算法。在这方面,我正在使用AmazonWebServices提供的弹性MapReduce。我想创建一个HDFS文件以在其上保存初始集群坐标,并在其上存储reducer的最终结果。我在这里完全困惑。无论如何要创建或“上传”这个文件到HDFS格式,以便所有映射器都能看到。有这方面的说明吗?谢谢。 最佳答案 最后我知道了怎么做。所以,为了将HDFS文件上传到集群中。您必须通过Putty连接到您的集群(通过使用安全key)。然后编写这些命令hadoopdistcps3://buck