草庐IT

X-Elastic-Product

全部标签

hadoop - Amazon Elastic Mapreduce 默认配置

Hadoop默认配置(core-site.xml、yarn-site.xml等)是否由Amazon发布?我看到了一些已发布的参数,但没有看到全部默认配置。 最佳答案 您将在以下链接的amazonemr文档页面找到默认配置http://docs.aws.amazon.com/ElasticMapReduce/latest/DeveloperGuide/TaskConfiguration_H2.html您可以找到触发作业的配置。您可以访问保存日志的S3位置。在那里你会找到j-yourjoblogsfilelocation/jobs/jo

hadoop - 在 AWS Elastic Map Reduce 中禁用 Gzip 输入解压缩

我正在Gzipped.arc文件上运行MapReduce任务。类似于此question,我遇到了困难,因为Gzip解压缩是自动运行的(因为文件有.gz扩展名),但它导致换行符/回车符按照Unix文件编码被渲染为换行符的问题。这使得输入完全不可读,因为它取决于文件中嵌入的特定字符数。我正在尝试禁用Gzip解压缩,以便我可以在我的映射器中正确地执行它。我试过:-jobconfstream.recordreader.compression=none但这似乎并不影响压缩。有什么方法可以防止对我的输入进行Gzip解压缩?谢谢,-Geoff 最佳答案

hadoop - 无法通过 ssh 进入 Elastic MapReduce

我正在使用elastic-mapreduce从命令行创建新集群。看完this教程,我有:elastic-mapreduce--create--alive\--instance-typem1.xlarge\--num-instances5\--supported-productmapr\--namem7\--args"--edition,m7"将创建一个具有6个节点(1个主节点+5个从节点)的新集群。所以我尝试通过ssh进入master:elastic-mapreduce--jobflowj-3FLVMX9CYE5L6--ssh然后我得到Permissiondenied(publicke

python - 我的 boto elastic mapreduce jar 作业流参数有什么问题?

我正在使用boto库在Amazon的ElasticMapReduceWeb服务(EMR)中创建工作流。以下代码应创建一个步骤:step2=JarStep(name='Findsimiliaritems',jar='s3n://recommendertest/mahout-core/mahout-core-0.5-SNAPSHOT.jar',main_class='org.apache.mahout.cf.taste.hadoop.similarity.item.ItemSimilarityJob',step_args=['s3n://bucket/output/'+run_id+'/a

python - Amazon Elastic MapReduce - python map 和 reduce 代码的格式或示例

也许它与Hadoop相同,但我找不到编写map的格式或示例,并在map示例旁边减少python代码:http://docs.amazonwebservices.com/ElasticMapReduce/latest/GettingStartedGuide/但我找不到reduce代码示例,它和Hadoop一样吗?格式是什么,有什么例子吗? 最佳答案 EMR流与一般的Hadoop流没有什么不同。这是一个pythonreducer的例子http://www.michael-noll.com/tutorials/writing-an-had

python - 文件未在 AWS Elastic Mapreduce 上缓存

我在AWSElasticMapReduce上运行以下MapReduce:./elastic-mapreduce--create--stream--nameCLI_FLOW_LARGE--mappers3://classify.mysite.com/mapper.py--reducers3://classify.mysite.com/reducer.py--inputs3n://classify.mysite.com/s3_list.txt--outputs3://classify.mysite.com/dat_output4/--caches3n://classify.mysite.c

r - 流媒体命令失败!使用 Elastic Map Reduce/S3 和 R 时出错

我在这里遵循这个示例,希望能够使用EC2/S3/EMR/R成功运行某些东西。https://gist.github.com/406824作业在StreamingStep上失败。以下是错误日志:Controller:2011-07-21T19:14:27.711ZINFOFetchingjarfile.2011-07-21T19:14:30.380ZINFOWorkingdir/mnt/var/lib/hadoop/steps/12011-07-21T19:14:30.380ZINFOExecuting/usr/lib/jvm/java-6-sun/bin/java-cp/home/ha

xml - 如何使用 Elastic MapReduce 对数百万个小型 S3 xml 文件运行 XSLT 转换?

更具体地说,是否有某种简单的流媒体解决方案? 最佳答案 请参阅此链接:HowdoIprocessfiles,onepermap?将您的数据上传到S3存储桶生成一个文件,其中包含每个文件的完整s3n://路径编写一个映射器脚本:从环境中提取“mapred_work_output_dir”(*)根据文件名进行XSLT转换,保存到输出目录编写一个什么也不做的身份归约器将您的映射器/缩减器脚本上传到S3存储桶通过AWSEMR控制台测试您的脚本(*)Streaming将您的jobconf置于流程环境中。见代码here.

hadoop - 将数据传入和传出 Elastic MapReduce HDFS

我编写了一个Hadoop程序,它需要在HDFS中进行特定布局,然后我需要从HDFS中获取文件。它在我的单节点Hadoop设置上运行,我渴望让它在ElasticMapReduce中的10个节点上运行。我一直在做的是这样的:./elastic-mapreduce--create--aliveJOBID="j-XXX"#outputfromcreation./elastic-mapreduce-j$JOBID--ssh"hadoopfs-cps3://bucket-id/XXX/XXX"./elastic-mapreduce-j$JOBID--jars3://bucket-id/jars/h

hadoop - 在 Elastic Map Reduce 上将分布式缓存与 Pig 结合使用

我正在尝试在Amazon的ElasticMapReduce上运行我的Pig脚本(使用UDF)。我需要在我的UDF中使用一些静态文件。我在我的UDF中做了这样的事情:publicclassMyUDFextendsEvalFunc{publicDataBagexec(Tupleinput){...FileReaderfr=newFileReader("./myfile.txt");...}publicListgetCacheFiles(){Listlist=newArrayList(1);list.add("s3://path/to/myfile.txt#myfile.txt");retu