草庐IT

Elastic-Job

全部标签

hadoop - Spark 流 : How to process using multiple inputs to job?

输入1:KV数据流。输入2:一些静态数据分区(用于处理输入1中的流)问题可以建模为下图:与HDFS/RDD分区共置:我们如何确保流式任务Map1、Map2和Map3在存在HDFS/RDD分区的机器上运行?图像描述:假设K是流式key(不是元组)。FirstMap将其转换为元组(具有空值)并将其广播给3个映射器。每个映射器都在不同的节点上运行,这些节点包含RDD(或HDFS文件,这是第二个输入和静态数据)的不同分区。每个Mapper使用RDD分区来计算键的值。最后,我们要聚合键的值(使用reduceByKey_+_)。 最佳答案 如果

hadoop - 无法通过 ssh 进入 Elastic MapReduce

我正在使用elastic-mapreduce从命令行创建新集群。看完this教程,我有:elastic-mapreduce--create--alive\--instance-typem1.xlarge\--num-instances5\--supported-productmapr\--namem7\--args"--edition,m7"将创建一个具有6个节点(1个主节点+5个从节点)的新集群。所以我尝试通过ssh进入master:elastic-mapreduce--jobflowj-3FLVMX9CYE5L6--ssh然后我得到Permissiondenied(publicke

hadoop job tracker无法启动

单节点设置下我尝试运行单个节点示例然而,jobtracker启动失败并出现异常:2013-04-3017:12:54,984INFOorg.apache.hadoop.metrics2.impl.MetricsConfig:loadedpropertiesfromhadoop-metrics2.properties2013-04-3017:12:54,994INFOorg.apache.hadoop.metrics2.impl.MetricsSourceAdapter:MBeanforsourceMetricsSystem,sub=Statsregistered.2013-04-301

python - 我的 boto elastic mapreduce jar 作业流参数有什么问题?

我正在使用boto库在Amazon的ElasticMapReduceWeb服务(EMR)中创建工作流。以下代码应创建一个步骤:step2=JarStep(name='Findsimiliaritems',jar='s3n://recommendertest/mahout-core/mahout-core-0.5-SNAPSHOT.jar',main_class='org.apache.mahout.cf.taste.hadoop.similarity.item.ItemSimilarityJob',step_args=['s3n://bucket/output/'+run_id+'/a

python - Amazon Elastic MapReduce - python map 和 reduce 代码的格式或示例

也许它与Hadoop相同,但我找不到编写map的格式或示例,并在map示例旁边减少python代码:http://docs.amazonwebservices.com/ElasticMapReduce/latest/GettingStartedGuide/但我找不到reduce代码示例,它和Hadoop一样吗?格式是什么,有什么例子吗? 最佳答案 EMR流与一般的Hadoop流没有什么不同。这是一个pythonreducer的例子http://www.michael-noll.com/tutorials/writing-an-had

python - 文件未在 AWS Elastic Mapreduce 上缓存

我在AWSElasticMapReduce上运行以下MapReduce:./elastic-mapreduce--create--stream--nameCLI_FLOW_LARGE--mappers3://classify.mysite.com/mapper.py--reducers3://classify.mysite.com/reducer.py--inputs3n://classify.mysite.com/s3_list.txt--outputs3://classify.mysite.com/dat_output4/--caches3n://classify.mysite.c

hadoop - Pig map reduce job 将值放在适当的范围内

我有一个值列表作为一个数据源和第二个数据集,其中包含与值相关的范围。Dataset1:346202538Dataset2:1|3|A4|10|B11|20|C21|30|D31|31|E32|38|F39|40|GResult:3,A4,B6,B20,C25,D38,F我想创建某种类型的“JOIN”以将数据集1中的值与数据集2中的字符联系起来。 最佳答案 主要问题是MapReduce进行连接的方式需要键完全匹配,并且它会在分区器中随机存储内容(默认情况下)。使用JavaMapReduce可能有很多棘手的方法可以做到这一点。下面是我能

r - 流媒体命令失败!使用 Elastic Map Reduce/S3 和 R 时出错

我在这里遵循这个示例,希望能够使用EC2/S3/EMR/R成功运行某些东西。https://gist.github.com/406824作业在StreamingStep上失败。以下是错误日志:Controller:2011-07-21T19:14:27.711ZINFOFetchingjarfile.2011-07-21T19:14:30.380ZINFOWorkingdir/mnt/var/lib/hadoop/steps/12011-07-21T19:14:30.380ZINFOExecuting/usr/lib/jvm/java-6-sun/bin/java-cp/home/ha

amazon-ec2 - Amazon EC2 上的 Hadoop : Job tracker not starting properly

我们在AmazonEC2集群上运行Hadoop。我们启动主服务器、从服务器并附加ebs卷,最后等待hadoopjobtracker、tasktracker等启动,超时时间为3600秒。我们注意到50%的时间作业跟踪器无法在超时前启动。原因是,hdfs未正确初始化且仍处于安全模式且作业跟踪器无法启动。当我尝试手动ping从站时,我注意到EC2上节点之间的连接问题很少。有没有人遇到过类似的问题并且知道如何解决这个问题? 最佳答案 我不确定这个问题是否与AmazonEC2有关。我也经常遇到这个问题-虽然我的机器上有一个伪分布式安装。在这些

hadoop - 在hadoop job jar的 "lib"文件夹下打包依赖库时,遇到ClassNotFoundException

我曾经将依赖库打包在Hadoopmap-reduce作业jar的“lib”文件夹中。那很好用。但这一次却出错了。有人可以给我一些解决问题的想法吗?问题如下:当我使用Eclipse“导出”功能和“将所需库提取到生成的JAR”选项打包作业jar时。生成的作业jar工作正常。但是如果我用ant-script打包作业jar以将依赖库包含在作业jar的“lib”文件夹中,我遇到了ClassNotFoundException:java.io.IOException:Splitclasscascading.tap.hadoop.MultiInputSplitnotfoundatorg.apache.