草庐IT

mapred-default

全部标签

hadoop - Oozie 作业在运行 hue 时由于 "not org.apache.hadoop.mapred.Mapper"而失败

我正在尝试通过oozie作业运行wordcount程序。当我像hadoopjarwordcoutjar/data.txt/out一样手动运行wordcoutjar时。它运行良好并给我输出。这是我的wordcount程序的映射器代码的详细信息。publicclassMapperWordcountextendsMapper{privatefinalstaticIntWritableone=newIntWritable(1);privateTextword=newText();publicvoidmap(LongWritablekey,Textvalue,Contextcontext)thr

hadoop MapR2 作业无操作

ayush@ayush-Inspiron-3521:~/apps/h260$jps3474ResourceManager3603NodeManager3316SecondaryNameNode3957Jps3129DataNode2975NameNodeayush@ayush-Inspiron-3521:~/apps/h260$bin/hdfsdfs-mkdir/userayush@ayush-Inspiron-3521:~/apps/h260$bin/hdfsdfs-mkdir/user/ayushayush@ayush-Inspiron-3521:~/apps/h260$bin/h

hadoop - oozie 中的 org.apache.hadoop.mapred.lib.MultipleOutputs.addNamedOutput()

我正在尝试使用MultipleOutputs来更改reducer中的输出文件名。我正在使用oozie工作流来运行mapreduce作业。我找不到在oozie工作流中添加以下属性的方法-MultipleOutputs.addNamedOutput(job,"text",TextOutputFormat.class,Text.class,Text.class);因为它是ooziemapreduce操作,所以我没有驱动程序类放在上面的代码。 最佳答案 答案就在方法的源代码中。来自hadoopcore1.2.1jar/**/publicst

scala - Hadoop 端口 : fs. default.name

我有点懵。我看到的几乎所有Hadoop安装“如何”指定的core-site.xml都将fs.default.name设置为9000fs.default.namehdfs://192.168.0.141:9000但是,下面的代码valconf=neworg.apache.hadoop.conf.Configuration()valfs=org.apache.hadoop.fs.FileSystem.get(newjava.net.URI("hdfs://192.168.0.141/"),conf)给我一​​个java.net.ConnectException:指定无法连接到端口8020。

hadoop - Hadoop中的mapred进程是多线程的吗?

我已经将hadoop集群的mapred_map_tasks_max配置为6,正如预期的那样,我看到在启动PIG作业时有6个mapred进程在运行。然而,我有点惊讶地看到其中一些进程的CPU使用率超过100%,有时甚至达到1000%+。mapreduce是否默认为多线程?这会不会是Pig本身的问题?我在网上只能找到一些关于设置(mapred.map.runner.class)的信息,但这似乎并没有设置为多线程。谢谢。PIDUSERPRNIVIRTRESSHRS%CPU%MEMTIME+命令2630mapred20053.4g2.8g12mS218.14.51:17.32java2553m

hadoop - 启动时读取Hadoop只读默认配置文件core-default.xml吗?

文档中描述的文件是只读的配置文件src/core/core-default.xml,是Hadoop在启动时使用的吗?一些文档说将此文件复制到conf/core-site.xml并进行更改,有些文档说只包含那些被更改的属性。如果是后者,那么core-default.xml文件似乎是必需的。 最佳答案 core-default.xml首先加载,然后core-site.xml覆盖在其上。core-site.xml将仅包含需要更改默认值的值。请参阅顶部的资源部分:http://hadoop.apache.org/docs/current/a

hadoop,如何在尝试运行 mapred 作业时包含 3part jar

我们知道,new需要将所有需要的类打包到job-jar中并上传到服务器。它太慢了,我想知道是否有一种方法可以指定第三方jar包括执行map-red作业,这样我就只能在没有依赖项的情况下打包我的类。PS(我发现有一个“-libjar”命令,但我不知道如何使用它。这是链接http://blog.cloudera.com/blog/2011/01/how-to-include-third-party-libraries-in-your-map-reduce-job/) 最佳答案 那些叫做genericoptions.因此,为了支持这些,您

hadoop - start-mapred.sh 的替代品是什么?

我正在阅读有关Hadoop的书,其中提到了脚本start-mapred.sh。我下载了最新版的Hadoop,里面没有start-mapred.sh脚本。我看到有start-yarn.sh但它会启动JobTracker和TaskTracker组件吗? 最佳答案 Yarn是MapReduce的下一个版本,它不使用作业和任务跟踪器,而是使用资源管理器来完成它的工作。对于MRv1,使用2.3.0版本的hadoop。同样的程序也可以使用Yarn运行。启动hadoop只需使用start-all.sh或start-dfs.sh和start-yar

hadoop - 在没有 mapred-site.xml 的情况下设置 hadoop mapreduce 大小

我在服务器上运行mapreduce作业,但不断收到此错误:Containerkilledonrequest.Exitcodeis143Containerexitedwithanon-zeroexitcode143Containerisrunningbeyondphysicalmemorylimits.Currentusage:1.0GBof1GBphysicalmemoryused;2.7GBof2.1GBvirtualmemoryused.Killingcontainer.当然我已经阅读了所有可能的资源并且我知道我需要在这些文件中设置配置:ma​​pred-site.xml\\yar

hadoop - mapred.min.split.size

我正在尝试在MapReduce中试验这个参数,但我有一些问题。这是否符合HDFS中的大小(无论是否压缩)?还是解压后的?我猜是前者,但只是想确认一下。 最佳答案 仅当您的输入格式支持拆分输入文件时才会使用此参数。常见的压缩编解码器(如gzip)不支持拆分文件,因此将被忽略。如果输入格式确实支持拆分,那么这与压缩后的大小有关。 关于hadoop-mapred.min.split.size,我们在StackOverflow上找到一个类似的问题: https://s