草庐IT

elastic-job

全部标签

Hadoop MapReduce log4j - 将消息记录到 userlogs/job_ 目录中的自定义文件?

我不清楚应该如何在作业级别配置HadoopMapReducelog4j。谁能帮我回答这些问题。1)如何从客户端计算机添加对log4j日志记录的支持。即我想在客户端机器上使用log4j属性文件,因此不想干扰集群中的Hadooplog4j设置。我认为在项目/jar中拥有属性文件就足够了,hadoop的分布式缓存应该完成其余的传输map-reducejar。2)如何将消息记录到$HADOOP_HOME/logs/userlogs/job_/目录中的自定义文件中。3)mapreduce任务会同时使用log4j属性文件吗?一个由客户端作业提供,一个存在于hadoop集群中?如果是,那么log4j

java - Hadoop mapreduce : Driver for chaining mappers within a MapReduce job

我有mapreduce工作:我的代码map类:publicstaticclassMapClassextendsMapper{@Overridepublicvoidmap(Textkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{}}我想使用ChainMapper:1.Jobjob=newJob(conf,"Jobwithchainedtasks");2.job.setJarByClass(MapReduce.class);3.job.setInputFormatClass(TextInputForma

Hadoop MapReduce : Possible to define two mappers and reducers in one hadoop job class?

我有两个单独的java类来执行两个不同的mapreduce作业。我可以独立运行它们。对于这两个作业,它们所操作的输入文件是相同的。所以我的问题是是否可以在一个java类中定义两个映射器和两个缩减器,例如mapper1.classmapper2.classreducer1.classreducer2.class然后点赞job.setMapperClass(mapper1.class);job.setmapperClass(mapper2.class);job.setCombinerClass(reducer1);job.setCombinerClass(reducer2);job.set

hadoop - Amazon Elastic Map Reduce - 创建工作流程

我对亚马逊服务还很陌生。我在创建工作流程时遇到问题。每次我创建任何作业流程时,它都会失败或关闭。我不清楚输入、输出或映射器函数上传技术。我关注了开发人员部分,但事情并不清楚。任何建议都会有所帮助。提前致谢。错误日志是LastStateChange:Noactivekeysfoundforuseraccount 最佳答案 这是对我有用的修复,如果您的工作流程报告以下错误,您可能需要它:LastStateChange:Noactivekeysfoundforuseraccount当您创建AWS账户时,默认情况下,必须为您创建安全访问ke

java - Elastic Storm拓扑/Storm-Hadoop共存

我们正在评估部署Storm,但我有点担心。我们目前运行HadoopMapReduce,并且希望将我们的一些处理从MapReduce转移到Storm进程。请注意,这是一些,但不是全部。我们仍然会有一些MapReduce功能。我找到了Mesos,它(可能)允许我们在同一硬件上维护Storm和Hadoop部署,但还有一些其他问题:我设想的理想情况是能够在Storm和Hadoop之间任意“借用”插槽。前任。两者都将根据需要使用相同的资源。不幸的是,这是一个固定部署,并不是像EC2等那样“基于云”。我想避免Storm环境中的瓶颈。理想情况是根据需要“增加”(或相反)更多Bolt实例。这可能/现实

hadoop - 启动 hadoop Job Tracker 时出错

我尝试使用Windows-Cygwin在hadoop中运行一个简单的程序。我可以启动名称节点了。然而,jobtracker启动失败并出现异常:FATALmapred.JobTracker:java.lang.IllegalArgumentException:Doesnotcontainavalidhost:portauthority:localatorg.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:162)atorg.apache.hadoop.net.NetUtils.createSocketAddr(NetUt

hadoop - 无法初始化集群。请检查你配置的mapreduce.framework.name和对应的服务器地址-提交job2remoteClustr

我最近将我的集群从ApacheHadoop1.0升级到CDH4.4.0。我在另一台机器上有一个weblogic服务器,我从那里通过mapreduce客户端将作业提交到这个远程集群。我仍然想使用MR1而不是Yarn。我已经针对CDH安装中的客户端jar编译了我的客户端代码(/usr/lib/hadoop/client/*)创建JobClient实例时出现以下错误。有很多帖子与同一问题相关,但所有解决方案都涉及将作业提交到本地集群而不是远程的场景,特别是在我的情况下是从wls容器提交。JobClientjc=newJobClient(conf);无法初始化集群。请检查您的配置中的mapre

Hadoop Datanode、namenode、secondary-namenode、job-tracker 和 task-tracker

我是hadoop的新手,所以我有一些疑问。如果主节点发生故障,hadoop集群会发生什么?我们能否在没有任何损失的情况下恢复该节点?是否可以保留一个辅助主节点在当前主节点发生故障时自动切换为主节点?我们有namenode(Secondarynamenode)的备份,所以我们可以在Secondarynamenode发生故障时从中恢复namenode。这样,当datanode发生故障时,我们如何恢复datanode中的数据呢?Secondarynamenode只是namenode的备份而不是datenode,对吧?如果一个节点在作业完成之前发生故障,那么作业跟踪器中有待处理的作业,该作业是

php - AWS Elastic BeanStalk php.ini 文件更新

我想将我的phpWeb应用程序的最小上传文件大小从2MB增加到64MB。我有一个配置文件存储在.ebextensions目录中。部署到aws时,发生错误:应用程序版本try10中的配置文件.ebextensions/yep.config包含无效的YAML或JSON。YAML异常:扫描“”中的简单键时,第7行,第7列:upload_max_filesize=64M^在“”,第8行,第7列中找不到预期的':':post_max_size=64M^,JSON异常:意外字符(f)在位置0..更新配置文件。下面是我开始使用的配置文件。我花了8个小时进行故障排除,但没有成功。非常感谢任何帮助。fi

php - Cron Job PHP脚本执行时间报告

我的问题很简单:我想知道执行PHP脚本需要多长时间。最重要的是,我通过cron执行它。现在,我可以通过PHP代码本身做一些事情来获得执行时间的开始/结束,但是我想知道是否可以通过cron命令添加一些东西,以便在几毫秒内通过电子邮件将其发送给我?目前我正在使用:/usr/bin/php-qhttpsdocs/folder/script.php>/dev/null2>&1它运行我的脚本并停止将所有错误/输出通过电子邮件发送给我。我可以更改以上内容以通过电子邮件将执行时间发送给我吗?谢谢 最佳答案 /usr/bin/time/usr/bi