草庐IT

elastic-job

全部标签

hadoop - 我收到 CDH4.0 错误 "The method addCacheFile(URI) is undefined for the type Job"

我遇到了错误ThemethodaddCacheFile(URI)isundefinedforthetypeJob使用CDH4.0时尝试调用addCacheFile(URIuri)方法,如下图:importjava.net.URI;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.

java - Job 类型中的方法 setPartitionerClass(Class<?extendsPartitioner>) 不适用于参数 (Class<WordCountPartitioner>)

我的司机代码:importorg.apache.hadoop.conf.Configured;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;importorg.apache.hadoop.mapreduce.lib.output.Fil

python - Hadoop 模式下的 Mrjob : Error launching job , 输入路径错误:文件不存在

我正在尝试运行Mrjobexample来self笔记本电脑上的HadoopwithPython一书,采用伪分布式模式。(文件salaries.csv可以找到here)所以我可以启动名称节点和数据节点:start-dfs.sh返回:Startingnamenodeson[localhost]localhost:startingnamenode,loggingto/home/me/hadoop-2.7.3/logs/hadoop-me-namenode-me-Notebook-PC.outlocalhost:startingdatanode,loggingto/home/me/hadoop

java - 无法在 Oozie java 操作中设置 mapred.job.queue.name

我有一个运行紧迫作业的应用程序。我正在尝试将Oozie配置为使用Java操作运行此作业。我的操作如下,${jobTracker}${nameNode}mapred.job.queue.namelaunchercom.test.Main-Dmapred.output.compress=false-Dmapred.textoutputformat.separator=,-Dcrunch.disable.output.counters=trueActionfailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]但每次我运行Oozi

【Flink系列二】如何计算Job并行度及slots数量

接上文的问题并行的任务,需要占用多少slot?一个流处理程序,需要包含多少个任务首先明确一下概念slot:TM上分配资源的最小单元,它代表的是资源(比如1G内存,而非线程的概念,好多人把slot类比成线程,是不恰当的)任务(task):线程调度的最小单元,和java中的类似。---------------------------------------------------------------------------为更好的去理解后面如何计算并行度及需要的slots数量,先介绍一下几个概念并行度(Parallelism)图1 一个特定算子的子任务(subtask)的个数被称之为并行度(p

amazon-s3 - 将目录作为压缩文件从 Elastic MapReduce 上传到 S3

我想将EMR本地文件系统中的目录作为压缩文件上传到s3。有没有比我目前使用的方法更好的方法来解决这个问题?是否可以将ZipOutputStream作为Reducer输出返回?谢谢zipFolderAndUpload("target","target.zip","s3n://bucketpath/");staticpublicvoidzipFolderAndUpload(StringsrcFolder,StringzipFile,Stringdst)throwsException{//ZipsadirectoryFileOutputStreamfileWriter=newFileOutp

hadoop - 将 rdd 从 spark 写入 Elastic Search 失败

我正在尝试在版本2.4.0上将一对rdd写入ElasticCloud上的ElasticSearch。我正在使用elasticsearch-spark_2.10-2.4.0插件写入ES。这是我用来写入ES的代码:defpredict_imgs(r):importjsonout_d={}out_d["pid"]=r["pid"]out_d["other_stuff"]=r["other_stuff"]return(r["pid"],json.dumps(out_d))res2=res1.map(predict_imgs)es_write_conf={"es.nodes":image_es,

hadoop - 为什么我们在 YARN 中配置 mapred.job.tracker?

我所知道的是引入了YARN,它取代了JobTracker和TaskTracker。我看过一些Hadoop2.6.0/2.7.0安装教程,他们将mapreduce.framework.name配置为yarn和mapred.job.tracker属性作为本地或主机:端口。mapred.job.tracker属性的描述是"ThehostandportthattheMapReducejobtrackerrunsat.If"local",thenjobsarerunin-processasasinglemapandreducetask."我的疑问是如果我们使用YARN为什么要配置它,我的意思是J

hadoop - Amazon Elastic MapReduce 引导操作不工作

我已经尝试了以下引导操作组合来增加我的作业的堆大小,但它们似乎都不起作用:--mapred-key-valuemapred.child.java.opts=-Xmx1024m--mapred-key-valuemapred.child.ulimit=unlimited--mapred-key-valuemapred.map.child.java.opts=-Xmx1024m--mapred-key-valuemapred.map.child.ulimit=unlimited-mmapred.map.child.java.opts=-Xmx1024m-mmapred.map.child.

r - 理解 R-Hive、Elastic MapReduce、RHIPE 和使用 R 的分布式文本挖掘

在我最近在Google实习期间学习了MapReduce来解决计算机视觉问题之后,我觉得自己像一个开明的人。我已经在使用R进行文本挖掘了。我想将R用于大规模文本处理和主题建模实验。我开始阅读教程并研究其中的一些。我现在将我对每个工具的理解写下来:1)R文本挖掘工具箱:用于本地(客户端)文本处理,它使用XML库2)Hive:Hadoopinterative,提供调用map/reduce的框架,也提供DFS接口(interface),用于在DFS上存储文件。3)RHIPE:RHadoop集成环境4)ElasticMapReducewithR:一个为那些没有自己的集群的人准备的MapReduc